Logicalis Now - PromonLogicalis

Anuncio
2 | Mayo 2014 - Logicalis Now
SUMARIO
06 ........... TENDENCIA
Top 10 tendencias de TIC para Latinoamérica
en 2014
09 ........... CONSULTORÍA
Productos de Data Center: del concepto a la
experiencia del usuario
13 ........... NOTA TÉCNICA
Data Centers: Hacia una gestión integral
17 ........... SOLUCIONES
Centros de Datos que apoyan el negocio
20 ........... NOTA TÉCNICA
SDN en Data Centers
06. Top 10 tendencias TIC 2014
23 ........... CASO DE EXITO
Un Data Center de útima generación
34. ¿Qué es Big Data?
26 ........... SOLUCIONES
Infraestructura: la era de la automatización
28 ........... SOLUCIONES
Automatización y orquestación para Data
Centers
30 ........... INTERVIEW
Cloud llegó a Zonamerica Uruguay
32 ........... NOTA TÉCNICA
Orquestación en el ambiente de Tecnología de
la Información
34 ........... TENDENCIA
¿Qué es Big Data?
36 ........... SOLUCIONES
23. Un Data Center de última
generación
ViPR: la plataforma de almacenamiento definido
por software de EMC
38 ........... SOLUCIONES
El futuro de la nube
40. La nueva generación de Data
Centers, SDN e Infraestructura
para Cloud
40 ........... NOTA TÉCNICA
La nueva generación de Data Centers, SDN e
Infraestructura para Cloud
45 ........... NOTA TÉCNICA
Soluciones de replicación entre Data Centers
48 ........... TENDENCIA
Apuntando a la mejora del mundo virtual
corporativo
50 ........... SERVICIOS
Data Centers: ¿Cómo optimizar y economizar
su gestión?
52 ........... NOVEDADES
32. Orquestación en el ambiente de
Tecnología de la Información
48. Apuntando a la mejora del mundo
virtual corporativo
Logicalis Now - Mayo 2014 | 3
EDITORIAL
Estimados lectores,
Desde el inicio, el rol del Data Center es fundamental para las organizaciones.
Sin embargo, en la actualidad los profesionales TI se enfrentan a grandes desafíos
para lograr optimizar su funcionamiento, de acuerdo a las últimas tendencias, y
economizando su gestión.
En la presenta edición de Logicalis Now lo invitamos a conocer las últimas novedades, tendencias y soluciones de Data Center para su organización.
Por último, lo invitamos a visitar nuestro renovado Web Site www.la.logicalis.
com , en el cual encontrará mayor información de nuestros servicios y soluciones,
agenda de eventos, noticias de nuestros partners, entre otros.
Staff
Comité editorial
También nos puede seguir en nuestras redes sociales: Facebook, Twitter, YouTube
y Slideshare.
Rodrigo Parreira
CEO, Logicalis Latam
Carlos Pingarilho
VP Logicalis Southern Cone
Marcelo Senra
Technology Director,
Logicalis Southern Cone
Andres González
Consulting Services Manager,
Logicalis Southern Cone
Florencia Sidotti
Strategy, Marketing & Communication,
Logicalis Southern Cone
Thais Cerioni
Marketing PromonLogicalis
Idea y coordinación
María Victoria Muñoz
Communication Coordinator Logicalis
victoria.munoz@la.logicalis.com
4 | Mayo 2014 - Logicalis Now
www.la.logicalis.com
info@la.logicalis.com
TENDENCIA
Top 10 tendencias
de TIC para
Latinoamérica en 2014
La consultora IDC presentó su informe anual con foco en la región, que analiza los sucesos que ocurrirán en la industria
de TI y Telecomunicaciones durante este año. A continuación, les presentamos las 10 predicciones para el mercado, el cual
está atravesando un momento de fuertes cambios.
La industria TIC en América Latina
crecerá 3,2%, cifra que está por debajo del 4,1% que fue la media latinoamericana durante la última década.
Este y otros datos se desprenden del
Top 10 de tendencias de TIC para
América Latina en 2014, publicado
por la consultora IDC.
Según los analistas, la inversión en
tecnología alcanzará los 139 mil millones de dólares en hardware, software y servicios, lo que representa un incremento del 8,4% si se compara con
2013. Por su parte, la inversión en
telecomunicaciones llegará a 219 mil
millones de dólares, un crecimiento
del 8% en comparación con el año
anterior. En conjunto, el mercado
TIC representará 358 mil millones
de dólares para la región.
Tras la desaceleración del consumo en
Brasil, economías como las de Perú,
Chile y Colombia mostraron mayor
crecimiento promedio en la región
(Perú, 6,3%; Chile, 4,8% y Colombia,
4,5%), gracias a cambios estructurales
en los últimos años y acuerdos de co-
6 | Mayo 2014 - Logicalis Now
mercio multilaterales, que llevan a esos
mercados nuevas inversiones externas.
Ricardo Villate, vicepresidente de IDC
para América Latina, indicó que en
2014, la industria TIC continuará “el
viaje transformacional, llamado migración a la tercera plataforma, que se basa
en cuatro pilares fundamentales: cloud,
Big Data, movilidad y red social”.
A continuación, las 10 predicciones de
IDC para la industria TIC latinoamericana en 2014:
1. Los ejecutivos de alto nivel continuarán incrementando su rol en las
decisiones de compra de tecnología
En 2014, la inversión en TI tendrá un
impacto disruptivo en el rol que tienen
las áreas de tecnología. Departamentos
como marketing, ventas y recursos humanos incrementarán su participación
en la adquisición de tecnología.
IDC predice que en 2014 cerca de
20% de la inversión en hardware,
software y servicios de las empresas
(10 mil millones de dólares) saldrá de
los presupuestos de la línea de negocios.
2. Las tecnologías de la Tercera plataforma y sus cuatro pilares (movilidad, Cloud, Big Data y redes
sociales) tendrán gran crecimiento
Se requiere actualizar voz y video sobre IP, proliferará el uso de dispositivos inalámbricos para redes y se incrementará el uso de la virtualización
y el cómputo de nube. Se estima que
más del 50% de las compañías buscarán mejorar la seguridad de sus redes.
La red no ha sido la excepción de crecimiento. En una encuesta reciente
realizada por IDC, se observó que el
53% de las empresas afirmaron que
es una prioridad tener una red más
robusta. Por su parte, el 61% de las
compañías dijeron que la disponibilidad de ancho de banda suficiente
es una preocupación principal para
ellos.
Adicionalmente, el gerenciamiento
de la red continuará siendo un tema
principal y la seguridad continuará
ganando relevancia como requerimiento horizontal y a través de todas las tecnologías de comunicación.
IDC espera que más del 60% de las
empresas enfrenten la situación de
mejorar la seguridad de su red WAN
en 2014.
3. La administración de cargas de
trabajo definirá la infraestructura
y preparará el terreno para las infraestructuras convergentes
Actualmente, se calcula que la mitad
de las empresas latinoamericanas perciben y comprenden los conceptos y
beneficios de infraestructuras convergentes, es decir, sistemas que integran
un pull de procesamiento, almacenamiento y red común en una solución
pre-integrada, con una ingeniería
predefinida e incluye también herramientas para administrar los sistemas
y la virtualización.
4. Big Data y analíticos dejarán de
ser teoría para volcarse a la realidad
Hace un año, se decía que Big Data
iba a generar mucho ruido, pero aún
no se utilizaba en el mercado. Esta
situación está cambiando, y hay un
nuevo punto de inflexión hacia Big
Data en América Latina: en 2014,
hay demanda real de tecnologías de
Big Data.
IDC estima un crecimiento sostenido de Big Data en América Latina,
derivado de la integración y procesamiento de tecnologías nuevas, en
donde la suma de hardware y software y los servicios alrededor de lo
nuevo de Big Data alcanzará los 819
millones de dólares.
La captura y análisis de datos transaccionales es omnipresente en las
organizaciones en América Latina.
Sin embargo, el uso de datos no estructurados y redes sociales halla en
la región un campo fértil: es la región
donde la penetración de Facebook
es la más alta del planeta. Se calcula
que el 64% de las compañías en la
región usarán redes sociales públicas
para marketing, servicio al cliente y
ventas.
5. La adopción de la nube pública
continuará siendo liderada por la
modernización de aplicaciones
Dos de cada tres empresas medianas y
grandes capturan más de dos tipos de
datos no transaccionales, como son video, texto, datos de sensores, tipos de
datos que necesitan ser integrados al
motor de analíticos del negocio (Business Analytics) de la organización.
IDC espera que el crecimiento de
servicios alrededor de la modernización de aplicaciones continúe empujando la adopción de diferentes
cargas de trabajo en la nube pública
y, por ende, el crecimiento en estos
servicios será uno de los más altos en
toda la industria TIC, cerca del 67%
en 2014, superando los mil millones
de dólares.
6. De BYOD a “Mobile First”. Las
herramientas de administración
móvil impulsarán la evolución de
la estrategia de negocios al siguiente nivel
Logicalis Now - Mayo 2014 | 7
TENDENCIA
Durante 2012 y a principios de
2013, se vio que las compañías latinoamericanas no estaban aceptando
ampliamente BYOD porque cada vez
resultaba más complejo el manejo de
dispositivos permitidos en las organizaciones. El crecimiento de la base instalada de dispositivos traídos por los
propios usuarios generó una reacción
del mercado durante 2013. La tasa
de empresas que permitían el uso de
dispositivos personales y su conexión,
bajó de 43% a 33%. Para este año se
espera que vuelva a su nivel anterior.
Se prevé que el tráfico móvil empresarial crezca un 55% en tabletas y 34%
en teléfonos inteligentes. Al menos la
mitad de las empresas implementarán
políticas para administrar la movilidad.
7. Crecerá la adopción de aplicaciones móviles en América Latina
El uso de correo electrónico en plataformas móviles es un claro ejemplo de
esto. Por estos días, cerca del 90% de
las organizaciones ya tienen disponible el correo electrónico para muchos
de sus empleados.
Hacer móviles otro tipo de aplicaciones, como el ERP, el CRM, la automatización de la fuerza de ventas, no ha
sido tan rápido. Pero habrá cambios,
sobre todo tomando en cuenta que se
prevé que el 40% de la fuerza de trabajo sea móvil en 2014.
8 | Mayo 2014 - Logicalis Now
8. Internet de las cosas acelerará la
creación de soluciones B2B
presentó crecimientos de doble dígito, hasta en 80%.
Esto involucrará soluciones tecnológicas que permiten comunicación
continua y autónoma entre máquinas. Se calcula que en 2014 habrá
17,5 millones de nuevas máquinas
conectadas sin interacción humana.
Esa tendencia continuará en el mismo
tenor: se estima que para 2014, el mercado de PC seguirá contrayéndose, declinando 8%, y el de tabletas y teléfonos
inteligentes alcanzará un crecimiento
cercano al 30%, lo cual representa que
se embarcarán 142 millones de unidades de tabletas y teléfonos inteligentes
en América Latina en 2014.
Las soluciones implementadas en las
empresas estarán relacionadas con la
transformación de industria inteligente. Habrá grandes oportunidades
en 2014 para los sectores de salud,
seguros (localización de vehículos,
principalmente), transporte y logística, manufactura (automatización de
procesos).
IDC estimó que el valor de Internet
de las cosas en América Latina en
2014 ascenderá a 4 mil millones de
dólares.
9. La adopción de dispositivos
cambiará a uso y creación de contenidos
El mercado tradicional de PC cayó
un 7% en 2013, mientras que en el
de tabletas y teléfonos inteligentes
10. Los miembros de la “Generación Y” y los proyectos relacionados
con educación dirigen el crecimiento de dispositivos de cómputo en
América Latina
Por ejemplo, los miembros de esta
generación han pasado de utilizar
tabletas para navegación en Internet
a la creación de contenidos. Además
de ser versátiles y permitir la movilidad, estos dispositivos son populares
porque tienen un precio cada vez más
bajo, lo cual contribuye a que la tendencia continúe. Se calcula que este
año se embarcarán 1,3 tabletas por
cada notebook en América Latina,
cuyos precios pueden fluctuar entre
149 a 249 dólares.
Se prevé que el tráfico móvil empresarial crezca un 55% en tabletas y
34% en teléfonos inteligentes. Al menos la mitad de las empresas implementarán políticas para administrar la movilidad.
CONSULTORÍA
Productos de Data Center:
del concepto a la
experiencia del usuario
Por Andrés González, Consulting Services Manager Logicalis Southern Cone
A continuación, presentamos las principales claves para monetizar las grandes inversiones en infraestructura y soporte de
un Centro de datos.
Los departamentos de TI históricamente fueron migrando de un rol de
controladores de la infraestructura tecnológica a proveedores de servicios de
TI para la empresa. La formalización
de la metodología ITIL apalancó este
movimiento a finales del siglo XX.
Andrés González, Consulting Services Manager
Logicalis Southern Cone
Sin tiempo para el descanso, hoy están
atravesando otro proceso de cambio
para estar más involucrados en el negocio de la empresa y ser los impulsores de la innovación como diferenciador competitivo. En este sentido,
los equipos de TI, con cada vez más
frecuencia, ven la necesidad de delegar
y automatizar la gestión de la infraestructura para concentrarse en cómo
brindar beneficios concretos al negocio a través del uso de la información.
Simultáneamente, hace décadas que
múltiples empresas de servicios, especialmente las operadoras de telecomunicaciones, vienen haciendo
grandes inversiones en mega centros
de datos para ofrecer servicios a sus
clientes. Desde antes de que el término “Cloud” estuviera acuñado en
todas las presentaciones de los equipos de TI, ya conocíamos las ofertas
de hosting y housing en estos Data
Centers. Sin embargo, hemos visto
muchos de estos emprendimientos
gestarse, tomar dimensiones descomunales, y caer estrepitosamente sin
acercarse siquiera a las expectativas
que generaron.
Aunque parezcan tener muchos puntos en común, estos servicios tradicionales siempre estuvieron ligados a la
vieja tradición de TI como controlador de la infraestructura (con la salvedad de ser alquilada en vez de propia),
mientras que el concepto de Cloud
considera, desde la concepción, a la
tecnología como servicio.
En este contexto, parece claro que dar
servicios desde un Data Center es un
camino inevitable que todos los operadores y prestadores de servicios deben tomar en mayor o menor medida.
Logicalis Now - Mayo 2014 | 9
CONSULTORÍA
Lo que nunca fue demasiado obvio es
cómo conseguir que estos emprendimientos generen negocios que no sólo
soporten los costos operativos, sino
que paguen las inversiones y generen
nuevas oportunidades. La pregunta es
¿Cómo monetizar las grandes inversiones en infraestructura y soporte de
un Data Center?
Si se logra una estimación
precisa de la demanda, será
posible planificar los gastos
e inversiones en el momento
justo en que se pueda acoplar
con los ingresos, optimizando
así las ganancias operativas.
Conocer el mercado
Un buen punto para comenzar es
preguntarse a qué mercado se quiere
llegar. En general, el mercado de los
servicios en la nube no tiene fronteras
geográficas. Es así como proveedores
globales como Amazon o Rackspace pueden ser una competencia seria incluso en países donde no tiene
representación local. Esto hace que
puedan abarcar un mercado objetivo
enorme y conseguir economías de escalas mayores, permitiéndoles penetrar en otros mercados gracias a sus
precios más bajos. Competir directamente con estos gigantes de la red
puede ser muy difícil, especialmente para los operadores tradicionales,
acostumbrados a controlar la competencia dentro de su área geográfica de
cobertura.
10 | Mayo 2014 - Logicalis Now
Un punto para considerar es si existen
industrias que no se satisfacen con un
proveedor global sino que requieren,
ya sea por naturaleza del negocio, por
políticas internas o por regulaciones,
un mayor control de la ubicación física, donde su información es procesada y/o almacenada, como pueden ser
las organizaciones gubernamentales o
las entidades financieras. Proveedores
locales o con presencia regional también pueden ofrecer condiciones más
flexibles y un contacto más cercano
con el proveedor.
Por otro lado, los servicios globales
tienden a ser estándares, de modo que
no satisfacen necesidades puntuales
de determinados clientes. Una investigación de mercado podrá dar una
visión más clara de las oportunidades existentes y permitir un posicionamiento ajustado a diferenciadores
competitivos.
En el otro extremo, soluciones de SaaS
(Software as a Service) o BPaaS (Business Process as a Service) pueden ser
dirigidas a un segmento particular de
mercado, inclusive nichos, ofreciendo
soluciones con la ventaja de que se
ofrecen como servicio (OPEX en vez
de CAPEX), desde infraestructuras altamente confiables y accesibles desde
Internet con medidas de seguridad de
clase mundial. En este caso, las barreras de salida de los clientes pueden ser
mucho más altas, los contratos de más
largo plazo, y las ganancias mayores al
reducirse las opciones de competencia
por diferenciación.
Hasta dónde se quiere llegar en la oferta de servicios es una decisión estratégica que se debe tomar al principio del
emprendimiento, para poder definir
un portfolio adecuado y crear un plan
de negocios sustentable en el tiempo
más allá de la etapa de start-up.
Portfolio de productos
Plan de negocios
Según el objetivo de mercado a que
se apunte, es posible desarrollar productos de Data Center orientados a
un amplio rango, desde un mercado
masivo hasta nichos de negocio. Los
servicios de IaaS (Infrastructure as a
Service), como almacenamiento y
procesamiento en la nube, satisfacen
necesidades amplias, masivas, pero
proveen escaso valor agregado y tienen bajas barreras de entrada y de
salida. Rápidamente se convierten en
commodities, y es esperable que sus
márgenes de ganancias sean bajos. Por
otro lado, son relativamente fáciles de
implementar y empaquetar, altamente automatizables y requieren escaso
mantenimiento.
Siempre que desarrollemos un nuevo
producto o servicio, deberemos contestar dos preguntas básicas: “¿Cuánto
hay que gastar?” y “¿Cuánto vamos
a vender?”. Para ello, es importante
tener una estimación lo más precisa
posible del pronóstico de ventas. Un
análisis de la competencia o benchmarks con los principales proveedores
de servicios similares pueden ser de
gran ayuda. Si los productos a ofrecer
aún no se encuentran establecidos en
el mercado, una encuesta entre los posibles clientes podrá ayudar a determinar los niveles de demanda que se puedan esperar en los próximos períodos.
Una vez estimada la demanda, se de-
berá calcular la inversión necesaria
para satisfacer las necesidades de procesamiento, almacenamiento, gestión
y comunicaciones, además de los esfuerzos de desarrollo o adaptación de
software y los costos de operación de
los servicios. Esto incluye no sólo los
servidores y storage, sino también la
conectividad dentro del Data Center,
la capacidad de los enlaces dedicados
y acceso a Internet, el software de
automatización y orquestación, los
sistemas para soportar los procesos
de provisión y administración, y las
consolas y el personal de operación.
Si se logra una estimación precisa de
la demanda, será posible planificar los
gastos e inversiones en el momento
justo en que se pueda acoplar con los
ingresos, optimizando así las ganancias operativas.
Otro tema a definir es el esquema de
precios. Existen, básicamente, dos
enfoques posibles para desarrollar los
precios:
∞ Bottom-up: que consiste en calcular los costos e inversiones y aplicarles
un margen de ganancia hasta obtener
un ROI y un período de repago aceptables;
∞ Top-down: que parte de una hipótesis de precio del cual se deducen los
costos.
En este último caso, se pueden tomar
dos caminos:
∞ Penetración: que consiste en lanzar
productos a precios mucho más bajos
que la competencia u otras alternativas para poder ganar mercado, y luego
ir aumentando los valores hasta lograr
la rentabilidad deseada con
los clientes cautivos.
∞ Desgrase: que comienza con precios altos para posicionar la marca por
diferenciación y ganar los primeros
early adopters para después acomodar
los precios y ser más competitivos.
Para tomar la decisión del esquema
de precios, es preciso que los departamentos de producto y marketing
estratégico estén alineados en sus objetivos, así como tener un análisis
financiero para adecuar las
expectativas de la alta dirección de la compañía.
Operación en todo el ciclo de
vida del servicio
Aunque hayamos realizado una
excelente definición de servicio,
una evaluación acertada del mercado y una política de precio adecuada,
el éxito aun así no está garantizado.
Como en todo servicio, la experiencia
del usuario es fundamental para que
el negocio sea sustentable. Para esto
es preciso definir los procesos y procedimientos en todo el ciclo de vida,
desde la generación de la demanda,
siguiendo por la venta, la provisión,
la facturación, el soporte hasta la renovación y la mejora continua. Si un
cliente que contrata el servicio no
recibe el servicio a tiempo, le llegan
facturas con errores o no logra contactar un representante para hacer un
Logicalis Now - Mayo 2014 | 11
CONSULTORÍA
reclamo, probablemente dé de baja el
servicio, busque otro proveedor o,
como mínimo, no lo renueve al final
del contrato.
Cada uno de estos pasos debe estar
claramente documentado y acordado
por las áreas funcionales, y soportados por equipos de personal correctamente dimensionados y capacitados.
Afortunadamente, existen marcos
metodológicos que pueden ayudar a
realizar estas definiciones, como ITIL
y más específicamente para operadores el modelo eTOM del TM Forum.
para operadores el modelo eTOM del
TM Forum.
Un tema que no debe pasarse por alto
es la gestión de la continuidad del
negocio. En un servicio totalmente
basado en tecnología, es fundamental contar con los procesos adecuados
para poder tolerar cualquier tipo de
incidente, desde una falla menor hasta un desastre. En este aspecto serán
de gran aporte una certificación ISO
22301 y Tier del Uptime Institute.
Transición y mejora continua
12 | Mayo 2014 - Logicalis Now
Una vez completadas todas las definiciones, llega el momento de ponerlas
en práctica. Tanto sea para el lanzamiento de un nuevo servicio como
una migración al nuevo esquema, la
transición debe ser controlada cuidadosamente para evitar malas primeras
experiencias en los clientes, que podrían ser desastrosas. Desde ya que una
etapa piloto es imprescindible, para lo
cual es preferible tomarse el tiempo
que sea necesario hasta estar seguro de
que todo funciona correctamente.
A partir del momento del lanzamiento, todas las predicciones sobre la demanda se ponen a prueba, y se puede
dar tanto que las expectativas sean superadas como que no sean alcanzadas.
De hecho, que la demanda sea mayor
que lo proyectado no es menos grave que lo contrario: la infraestructura
debe tener capacidad para absorberla de lo contrario en poco tiempo se
perderá una ventana de oportunidad
que será muy difícil de remontar. Para
esto es importante una gestión de la
capacidad ajustada y la posibilidad de
manejar el crecimiento de forma flexible, al menos, hasta que los índices de
crecimiento se establezcan.
Es muy importante la realimentación
de los usuarios para poder establecer
un proceso de mejora continua que
garantice que el servicio está a la altura de las expectativas. Para esto, las
redes sociales pueden ser una buena
fuente de referencia de la percepción
del mercado.
Conclusión
Para generar negocio de servicios de
Data Center sustentable, es necesario
conocer el mercado objetivo al que
se pretende llegar, definir un portfolio que pueda encontrar un lugar en
el mercado, ya sea compitiendo por
precio con servicios globales o insertándose en algún nicho no explorado,
definir la estrategia de precios más
adecuada y considerar los procesos y
procedimientos que soporten el ciclo
de vida completo del servicio. La transición debe ser planificada cuidadosamente y el proceso de mejora continua implementado desde el inicio,
para estar a la altura de la capacidad y
calidad que demande el mercado.
NOTA TÉCNICA
Data Centers:
Hacia una
gestión integral
Si bien desde sus inicios los Data Centers ocupan un lugar fundamental en la empresa y han estado en continuo crecimiento, alcanzar su máximo rendimiento fue dificultoso y se tornó necesario repensar varios puntos para llegar a cumplir
exitosamente todos los desafíos que se fueron presentando.
En los últimos años, las organizaciones de diferentes tamaños han realizado grandes inversiones en recursos
tecnológicos (procesos, equipos, herramientas y calificados profesionales) para administrar la infraestructura del Centro de Datos. Sin embargo,
y por las grandes diferencias entre las
instalaciones y los componentes de la
infraestructura IT, aún no han desarrollado todo su potencial.
Anteriormente, en la primera década
del siglo 21, los Data Centers surgieron ocupando un activo muy importante de la empresa, desempeñando
un papel vital en la gestión empresarial y de atención al cliente.
A lo largo de este período, los Data
Centers evolucionaron y aumentaron sus capacidades de Computing
& Data Storage. Así, podemos citar
algunas cifras relevantes:
∞ Las ventas globales de servidores
vienen creciendo, a ritmo sostenido
un 15% anual.
∞ El crecimiento de la densidad de
KW por racks creció de 6 Kw a 8Kw.
∞ La densidad de potencia del Data
Center se incrementó, entre 2010 y
2012, un promedio del 20%, según
IDC.
∞ Los chips de los servidores blade
están generando más de 100 w por
centímetro cuadrado, encontrándose
en continuo crecimiento.
∞ Cada día se necesita procesar más
datos y más almacenamiento; el desarrollo y explosión del “Big Data”.
Así, alguna de las tendencias que surgieron para mitigar estos problemas
fueron:
a) La utilización de la virtualización,
creando un cambio dinámico del ambiente.
b) Reducir los costos de refrigeración, los cuales implican un 35% de
la energía del Data Center.
c) Mejorar y optimizar la utilización
de los espacios dentro del Centro de
Datos (racks, equipos activos, cableado, infraestructura en general).
Sin embargo, en la mayoría de las
organizaciones los administradores
de Centro de Datos carecían de las
herramientas necesarias para abordar
eficazmente estos desafíos.
Por su parte, el sector de IT Network
Management nunca había manejado
los temas de energía, refrigeración,
espacio de racks, entre otros.
En este sentido, había que evolucionar y pasar de un enfoque reactivo a
un enfoque proactivo y acercarse al
management de la infraestructura.
Para esto es necesario un nuevo tipo
de sistema de gestión, que proporciona visibilidad en la infraestructura
física de los Data Centers y los servicios de IT.
Por su parte, las soluciones de gestión
de infraestructura del Data Center
Logicalis Now - Mayo 2014 | 13
NOTA TÉCNICA
(DCIM, Data Center Infrastructure
Management) han cobrado un especial protagonismo en esta industria.
Debido a la alta complejidad de los
Data Centers, el objetivo del DCIM
es conseguir una gestión integral de
todos los componentes, tanto de la
parte de facilities como de IT.
Definimos la administración de la
infraestructura de los Data Centers
como el monitoreo, recolección y
análisis de información exacta, continua, en tiempo real, que permite tomar acciones y decisiones inmediatas
y mantener el Centro de Datos en un
estado de equilibrio entre la eficiencia,
la capacidad y la alta disponibilidad.
Esta nueva visión de la gestión de in-
fraestructura está emergiendo rápidamente, reconociendo:
∞ La importancia de los datos en
tiempo real para entender la verdadera capacidad de la infraestructura hoy
disponible.
∞ La criticidad de las dependencias
entre las capas físicas y lógicas.
∞ La necesidad de gestión integral y
visibilidad de IT respecto a las instalaciones de la propia infraestructura.
∞ La necesidad de herramientas de
gestión más potentes que ofrezcan
una completa visión de la infraestructura, orientada al diseño y gestión del
cambio.
Business Applications
2. Chequeo y medición de la energía.
3. Monitoreo de las condiciones ambientales en los racks.
6. Control inteligente de la energía
crítica.
Virtualization
Compute, storage,
Network
7. Monitoreo y Gerenciamiento de
alertas y alarmas.
DCIM GAP
Data Center
Infraestructure Layer
14 | Mayo 2014 - Logicalis Now
1. Chequeo y medición de la temperatura.
5. Control inteligente de los aires
acondicionado de precisión.
Infraestructure
Layer
Business, Service & Infrastructure Layers.
Para el monitoreo del Data Center se
deben tener en cuenta diez variables
fundamentales:
4. Detección de fugas de gases o líquidos.
Business
Service Layer
* Equipment (Physical)
* Space, Power, Cooling
Respecto a las funcionalidades de las
soluciones del DCIM, es importante
destacar las mediciones de consumo
eléctrico, generación de alarmas, recopilación de datos para tomar decisiones en tiempo real, incluso realizaciones de simulaciones y predicciones
de futuro. Space
Power
Cooling
8. Monitoreo y Gerenciamiento de la
energía.
9. Monitoreo del banco de baterías.
10. Monitoreo remoto.
El mercado actual está impulsando
esta gestión, a partir del posicionamiento de distintos productos de importantes fabricantes y vendors.
Power & Cooling
Capacity & Inventory
Monitor
Manage
Real - Time
Physical
Data Collection
Analysis
Reporting
Alerting
Control
Lifecycle
3D Visualization
Asset Management
Capacity Analysis
Planning
Sintetizando, la utilización del
DCIM nivelará, agilizará y potenciará el Data Center en todas sus fases y
tecnologías, buscando además un criterio único para mejorar los distintos
procesos y fases de los distintos layers.
De esta forma, se logran mejoras sustanciales tales como:
∞ Reducción del costo total de propiedad (TCO) de los Centros de Datos.
Automated
Auto-Discovered
Workflow-enabled
Cross-platform
Cross-vendor
Service Mgmt / Workload / Virtualization
Resource Management / Business Integration
Logical
∞ Administración proactiva del uso
de energía.
IT Management & Business Services
Make Business-Relevant
∞ Predicción de fallas de infraestructura (antes de que sucedan).
∞ Optimización del servidor y márgenes de potencia.
Users
∞ Comunicar y controlar equipos
heterogéneos con diferentes protocolos de comunicación e interfaces
físicas.
Visualization
∞ Automatización de las políticas y
procedimientos para reducir los costos operativos.
∞ Extender la vida útil de los Centros
de Datos existentes.
Process
Monitoring
Data Center, IT
& Facilities Operators
Reporting
Rack & Floor
Diagrams
Physical Connectios
& Relationships
Daily Operations
& Workflow
Dashboards
Assets
& Configuratios
Apps
Server
Storage
Network
Cabling
Patching
Rack
PDU
Racks
Cabinets
PDU
RPP
Busway
UPS
CRAC
Logicalis Now - Mayo 2014 | 15
16 | Mayo 2014 - Logicalis Now
SOLUCIONES
Centros de Datos
que apoyan el negocio
Por Paulo Sgroi, Senior Solution Strategist Energy & Sustainability Latin America de CA Technologies
La discusión de la sostenibilidad está presente en todos los espacios. En un mundo donde las demandas son cada vez más rápidas, los Data Centers juegan un
papel clave.
En la actualidad, aproximadamente
el 84% de las compañías manifiestan
haber experimentado problemas con
la energía, la refrigeración o espacio
físico en su Centro de Datos que afectaron el negocio. Esto se traduce en
CAPEX u OPEX inesperado, en retrasos en el despliegue de aplicaciones
críticas y lentitud para atender las demandas empresariales.
La gestión de la infraestructura del
Centro de Datos es cada vez más crítica y ha dado lugar a lo que el mercado
estaba pidiendo: DCIM (Data Center
Infrastructure Management), un concepto que incorpora perspectivas más
antiguas de monitoreo operativo del
Centro de Datos, tales como alarmas
y algunas métricas básicas, pero que
va más allá de eso.
CA Technologies percibe DCIM en
tres pilares:
∞ El control del ambiente, que debe
incorporar instalaciones para la captura de datos en varios protocolos
(Modbus, BACnet SNMP, por ejem-
plo) para garantizar mecanismos eficientes para el análisis, presentación
de informes y alertas inteligentes.
∞ El segundo pilar se asocia con la
gestión del ambiente, el espacio físico
y la capacidad del Centro de Datos.
Los administradores de TI e instalaciones deben ser capaces de responder rápidamente a preguntas como:
“¿Cuánto tiempo tengo para sobrevivir en este espacio?”.
caciones de negocios es fundamental
para planificar una infraestructura
de mantenimiento. Por otro lado,
identificar un rack apoya la adición
de nuevos dispositivos y, en consecuencia, será esencial más energía y
calor para la carga informática. El
trabajo de días o semanas tomará un
∞ El tercer pilar es la vinculación de
todo esto con la gestión de TI y servicios de negocio. CA argumenta en
este universo desde que nació y trajo
al mundo de la experiencia DCIM a
la convergente de la gestión del Centro de Datos, métricas y disciplinas
que integran la infraestructura de TI,
tales como la gestión de cambios y
gestión de activos, en línea con monitorización del consumo de energía,
refrigeración y espacio.
La integración de los mundos de TI
e instalaciones beneficia a ambos.
Saber que se ven afectadas las apli-
Paulo Sgroi, Senior Solution Strategist Energy &
Sustainability Latin America de CA Technologies
Logicalis Now - Mayo 2014 | 17
SOLUCIONES
par de horas o incluso minutos.
Un Centro de Datos más eficiente
utilizará menos energía, emitirá menos carbono y tendrá una cuenta más
baja a fin de mes. Densificar el uso
del Centro de Datos de forma segura,
posponer las inversiones y ganancias
de capital puede ser significativo, así
como la construcción, que siempre
tiene un impacto medioambiental
notorio.
Los clientes de CA experimentaron
reducciones de entre el 5% y el 30%
en el consumo de energía. Logicalis
UK, por ejemplo, está reportando un
incremento del 5% en sus ingresos de
nuevos negocios, donde el monitoreo
y reporte real de la energía eran un
requisito fundamental.
Las dificultades encontradas en diferentes proyectos de gestión de
infraestructuras comienzan con la
comprensión del papel del Centro
de Datos DCIM y cómo las herramientas existentes pueden sustituir o
coexistir con ellos, tales como el BMS
y los sistemas tradicionales de supervisión.
El principal punto de partida es definir las necesidades principales, que
son diferentes para cada empresa.
18 | Mayo 2014 - Logicalis Now
Algunos tratan de mejorar la calidad
de su supervisión, mientras que otros
necesitan gestionar mejor sus activos
o entender más ampliamente el uso
de su capacidad de espacio, energía y
refrigeración. CA trabajó con clientes
como Facebook, Banco Itaú, Rackwise, entre otros, en lo que fue la consolidación de las mejores prácticas para
los proyectos de DCIM.
disponibilidad se colocan en riesgo
cuando el poder no es fiable.
Además, hay objetivos de negocio
asociados al Centro de Datos que
requieren mejores herramientas para
que puedan ser satisfechas. Las principales demandas del mercado son:
La integración entre TI y los instaladores de equipos es esencial y de gran
valor para que puede obtener lo mejor de DCIM. En algunos proyectos,
esta conexión puede tardar hasta dos
años. Anticipando esto, también se
anticipan los beneficios.
∞ El tiempo de funcionamiento y la
∞ Las limitaciones de capacidad de
energía, espacio y enfriamiento del
centro de datos.
∞ Aumento de los costos de funcionamiento debido al consumo de
energía.
Logicalis Now - Mayo 2014 | 19
NOTA TÉCNICA
SDN en
Data Centers
Por Lucas Pinz, Gerente Senior de Tecnología, especializado en redes, PromonLogicalis
Actualmente, la estructura de los Data Centers no permite el crecimiento exigido por las demás capas y por la explosión
de Cloud. Así, se comienza a observar las implementaciones de SDN. A continuación, presentamos las principales claves
de SDN.
Lucas Pinz, Gerente Senior de Tecnología,
especializado en redes, PromonLogicalis
El hecho de que los Data Centers hoy
ya pueden contar con estructuras de
procesamiento y almacenamiento
virtualizados refuerza la necesidad de
cambio en la manera de cómo sus redes son administradas y estructuradas.
Cuando se las compara con las interfaces de gerencia disponibles para los
ambientes de procesamiento y almacenamiento virtualizados, las interfaces de gerencia para redes de Data
Center puede ser consideradas arcaicas: se trata de un mundo dominado
por comandos manuales en interfaces
no gráficas. Como resultado, la capa
de red no acompaña, de manera automática, los cambios dinámicos y los
movimientos de worload que ocurren
en las capas de procesamiento, storage
y aplicaciones.
Otro cambio necesario está relacionado a la escalabilidad de las estructuras
actuales, cuyo objetivo es organizar la
carga de trabajo y soportar proyectos
de computación en la Nube que requieran ambientes multi-tenant. Así,
las redes de los Data Centers precisan
ser divididas en contenedores o tenants aislados lógicamente. Sin em-
20 | Mayo 2014 - Logicalis Now
bargo, en gran parte de las estructuras
actuales, los protocolos disponibles no
soportan la cantidad de tenants o contenedores que necesitan ser generados.
La necesidad de crear ambientes
multi-tenant escalables hizo surgir
implementaciones conocidas como
virtual overlay networks, basadas en
protocolos como VxLANy STT que
crean segmentos virtuales (overlays)
sobre la red física, también llamada por algunos “underlay network”.
Además de aumentar la escalabilidad,
estas implementaciones tienen como
objetivo integrar o dar visibilidad entre la red física y las redes creadas por
los servidores virtuales, permitiendo,
por ejemplo, el movimiento entre las
distintas redes físicas (en la estructura
actual existe un gap entre el mundo
virtual –overlay- y físico -underlay-) .
En resumen, la estructura actual de
las redes de Data Center no permite el
crecimiento con la velocidad exigida
por las demás capas y por la explosión en el número de aplicaciones y
proyectos de Cloud. Así, será principalmente en los Data Centers que ob-
La estructura actual de las redes de Data Center no permite el crecimiento con la velocidad exigida por las demás capas y por la explosión
en el número de aplicaciones y proyectos de Cloud. Es por esto que gran
parte de las soluciones ya disponibles en el mercado tienen los Centro
de Datos como principal foco de actuación.
servaremos las primeras implementaciones de SDN. Es por esto que gran
parte de las soluciones ya disponibles
en el mercado, también como gran
parte de los roadmaps de desarrollo,
ya anunciados por varios proveedores
del sector, tienen los Centro de Datos
como principal foco de actuación.
¿Cómo evaluar una solución de
SDN para Data Center? ¿Virtualización de red o SDN?
Así como ocurrió con la computación en a Nube, cada proveedor tiene
o tendrá su definición y visión para
SDN. Los beneficios prometidos por
gran parte de las soluciones, a la vez,
giran casi todos en relación a mejorar
el tiempo de respuesta a las demandas
del negocio; y la de las aplicaciones,
a aumentar la escalabilidad y, a partir
de configuraciones más inteligentes,
poder mejorar la integración con ambientes de Cloud o crear nuevas ofertas de servicio. Además, como siempre
es esperado, existe la expectativa (o
promesa) de reducción en los costos
de adquisición y operación. Con beneficios semejantes: ¿Cómo analizar y
elegir una solución de SDN para Data
Center?
Para la toma de decisión es preciso,
primero, hacer un listado de los requerimientos, que generalmente es-
tán relacionados al negocio. Algunos
ejemplos son “aumentar la escalabilidad para acomodar un número mayor
de clientes” o “aumentar la agilidad
en el deployment de aplicaciones”.
Ese análisis es necesario para verificar
si con la implementación de SDN se
está realmente resolviendo un problema o sumando sólo un layer de administración.
Para los análisis técnicos, básicamente las soluciones de SDN para Data
Center son:
∞ SDN standard: son las soluciones
que presentarán las features más básicas de SDN. Estas soluciones generalmente serán basadas en switches
simples (white boxes) y conexión con
plataformas básicas (generalmente
Open Source) como Openflow.
∞ SDN como virtualización de la red:
estas soluciones formarán parte de lo
que el mercado pasó a llamar de Software Defined Data Center, que es
la unión de procesamiento, storage y
redes virtualizadas. En ese caso la solución de SDN tendrá visibilidad desde la capa de red hasta la capa de los
servidores virtuales.
∞ SDN como elemento de integración entre redes y aplicaciones: estas
soluciones pueden ser consideradas
como una evolución del modelo de
SDN, ya que se utilizan de la misma
arquitectura pero con una amplitud
de visibilidad mayor lo que posibilita
alcanzar la capa de aplicaciones.
Las soluciones SDN Standard son las
que serán utilizadas directamente en
empresas que poseen los Data Centers conocidos como Massively Scalable Data Centers o MSDCs (Amazon, Google, etc), por ser empresas
en condiciones de realizar una fuerte
inversión en desarrollo de interfaces e
integraciones. Sin embargo, probablemente, estas soluciones no formarán
parte del mainstream de adopción de
SDN en Data Center.
Respecto a SDN como virtualización
de red es importante resaltar que, a diferencia de lo que ocurrió con los servidores que fueron virtualizados por
una cuestión relacionada al nivel de
utilización, la virtualización de red de
los Data Centers tiene otra convocatoria. Es decir, virtualizar la red no significará necesariamente un aumento de
la capacidad o nivel de uso de la red,
pero sí un mejor gerenciamiento de
los ambientes virtualizados, debido a
la visibilidad e integración de las redes
creadas por los servidores virtuales. Es
importante resaltar que estas soluciones estarán limitadas a los ambientes
virtualizados, o sea, no tendrán visibi-
Logicalis Now - Mayo 2014 | 21
NOTA TÉCNICA
lidad completa o tendrán acción limitada en las interfaces de servidores no
virtualizados (bare metal).
Por su parte, las soluciones de SDN
que colocarán la aplicación como
centro del Data Center tienen como
objetivo dar una mayor amplitud y
permitir la visibilidad de interfaces de
servidores virtualizados y no virtualizados, y así permitir la integración
con las aplicaciones, tornando los parámetros utilizados relevantes para el
ambiente de red del Data Center. La
idea principal es permitir que las alteraciones en las aplicaciones o nuevos
deployments reflejen directamente en
la capa de red.
En cualquiera de los tres grupos es
importante destacar que el perfil de
los administradores deberá ser acom-
pañado con cambios provenientes de
la adopción de SDN en Data Center,
ya que gran parte de los beneficios
vendrá de la customización efectiva
y de la integración entre las capas de
redes, servidores, storage y aplicaciones. Para esta customización será necesarios conocimientos de lenguaje de
promoción y desarrollo de scripts que
generalmente no son de dominio de
los profesionales de red.
Nuevos modelos operacionales están impulsando la
necesidad de mudanza de infraestructura
Varios nuevos modelos para el uso e
implementación de aplicaciones están impulsando la necesidad de cambios en la infraestructura, dado que:
∞ Los modelos de implementación
de Cloud Computing exigen flexibilidad y escala.
∞ El Big Data desafía el diseño de la
red actual, llevando los sistemas a ser
proyectados con recursos dedicados.
∞ El modelo DevOps permitirá la integración de los equipos de desarrollo
y aplicaciones. La intención es quebrar los ciclos tradicionales para que
los ciclos de roll-out de las aplicaciones ocurran de forma más coherente.
∞ El Software Defined Networking
(SDN) dará mayor velocidad a la implementación de las redes y eventuales alteraciones en el plano de control.
El momento de los 40G en los
Data Centers
Una de las promesas que acompañó la adopción de SDN en los Data
Centers es la reducción en el costo de
los hardwares de red (switches principalmente), ya que parte de la inteligencia sale de los switches y migra
para una capa de software.
Esta reducción se reflejará directamente en los costos de interface,
permitiendo la adopción de mayores
velocidades en el acceso. Actualmen-
22 | Mayo 2014 - Logicalis Now
te, gran parte de las corporaciones
poseen múltiples interfaces por servidor (en promedio, de 4 a 8 interfaces dependiendo de la industria y del
segmento de negocio). Velocidades
como 40G permitirán la reducción
en las cantidades de interface, lo que
impactará directamente en la reducción de los costos de cabling y OPEX,
y posiblemente podrán permitir una
adopción mayor de conexiones ISCSI con el ambiente de storage.
∞ La programabilidad de las redes,
una de las vertientes del SDN, moverá la configuración de los dispositivos
de las tradicionales CLI y GUI hacia
herramientas proyectadas para el lenguaje entre máquinas. Eso depende
de APIs y agentes de script, programados para ejecutar localmente en el
sistema operacional de los elementos
de red.
CASO DE ÉXITO
Un Data Center
de última generación
Por José Luis Duarte Granada, Jefe de la División de Tecnología y Desarrollo Informático de ANDE Paraguay
En Paraguay, con el fin de optimizar la disponibilidad de los servicios, ANDE (Administración Nacional de Electricidad)
implentó un Data Center de última generación. Conozca su experiencia y los principales beneficios que tuvo esta organización.
ANDE (Administración Nacional
De Electricidad) es una institución
autárquica, descentralizada de la Administración Pública, creada en 1948.
Su principal objetivo es satisfacer las
necesidades de energía eléctrica del
Paraguay, con el fin de promover su
desarrollo económico y fomentar el
bienestar de la población, mediando
el aprovechamiento de los recursos
naturales de la Nación.
El desafío
José Luis Duarte Granada, Jefe de la División
de Tecnología y Desarrollo Informático de ANDE
Paraguay
El principal problema de ANDE era
que no contaba con la infraestructura necesaria para albergar los equipos
críticos de la empresa. Poseía una sala
sin aislación térmica, sin ningún tipo
de monitoreo. Asimismo, el tablero
eléctrico era obsoleto y tenía un crecimiento desprolijo.
Todo esto ocasionaba una inestabilidad que afectaba la disponibilidad de
los servicios. “Durante mucho tiempo teníamos los servicios detenidos.
Todo ocasionado por problemas eléctricos, humedad, diversas situaciones
que nos obligaban a suspender los
servicios hasta solucionarlos. Necesi-
tábamos dar una solución de fondo
a todos esos problemas”, cuenta el
ingeniero José Luis Duarte Granada,
jefe de la división de tecnología y desarrollo informático de ANDE.
La solución
Una vez conocidas las necesidades de
la organización, el primer paso fue
la elección del sitio con el estudio de
suelo. La implementación de puesta a
tierra según las recomendaciones descriptas en el estándar TIA/EIA-607 y
el estándar TIA-942 para Data Centers, con el fin de proteger los equipos,
y la instalación de la sala cofre en el
predio definido por la organización.
El lugar elegido fue la casa central de
ANDE, ubicada en la avenida España de la ciudad de Asunción, la cual
tiene el fin de lograr un ambiente de
máxima seguridad para el equipamiento informático crítico, conformando así un volumen de sellado
hermético contra gases y agua, protección refractaria, barreras contra la
propagación de humedad y campos
magnéticos, que garantiza la integridad de los activos de TICs de ANDE.
Logicalis Now - Mayo 2014 | 23
CASO DE ÉXITO
Los principales beneficios de
este proyecto son la seguridad perimetral, física y lógica,
incluyendo monitoreo y control de acceso a sitios.
Una vez armada la sala cofre, se realizó la colocación del piso técnico, se
instalaron los aires acondicionados,
los racks, PDUs y SYS.
Luego, comenzó la implementación
de los tableros e infraestructura eléctrica, la instalación de los equipos UPSs
y los aires acondicionados de precisión. Al mismo tiempo, se inició la
construcción de la plataforma de hormigón armado para los condensadores
de aire. Estos trabajos fueron realizados por SIEMI, Parasur y Logicalis.
A mediados de noviembre de 2013,
se instalaron los condensadores y el
grupo generador, con el fin de garantizar las operaciones del Data Center.
En paralelo, se inició la instalación
del cableado de cobre Cat A6 y fibra óptica en la sala cofre. Además,
se instalaron los racks y PDUs en la
24 | Mayo 2014 - Logicalis Now
sala de proveedores y sala NOC, que
funciona como centro de operaciones
de la red. Allí se encuentran los operaciones que dan soporte y realizan el
monitoreo del equipamiento instalado en el Data Center. Esta instancia
estuvo a cargo de SIEMI, Parasur y
Logicalis.
Posteriormente, comenzó la implementación del sistema de videovigilancia, el sistema de monitoreo
ambiental, el sistema de detección y
extinción de incendios y control de
acceso. Esta implementación estuvo a
cargo de Preventec y Logicalis.
Los beneficios
Todos los problemas mencionados
anteriormente desaparecieron con
la adquisición e implementación de
esta nueva infraestructura, que llevó
poco más de dos meses, y que tiene
como beneficios principales la seguridad perimetral, física y lógica, que
incluye a todos los sistemas de monitoreo, tanto ambiental como videovigilancia, y control de acceso a los
sitios.
La sala cofre no solamente brinda
seguridad física, sino también ópti-
mas condiciones ambientales para
el funcionamiento de los equipos,
principalmente al estar cerca de una
estación eléctrica. El hecho de que
sea una Jaula de Faraday hace que
todo el campo electromagnético generado en esa estación no afecte a los
equipos críticos, que son sumamente sensibles a cualquier perturbación
electromagnética.
“Otro beneficio es el orden en el que
está el cableado estructurado, los
tableros eléctricos que dan servicio
en formato de alta disponibilidad a
todos los racks, todo el esquema de
detección y prevención de incendios,
entre otros”, asegura Duarte.
“La administración del proyecto fue
una gran experiencia y me permitió
crecer profesionalmente. Como recomendación desde el punto de vista
del Project Manager, es que proyectos de esta envergadura deben ser administrados por una única unidad”,
agrega la ingeniera Gisel Sosa Armoa,
Project Manager de ANDE.
Para Logicalis, este es un hito relevante y muy destacado, ya que nos posiciona como un actor importante en
el mercado de IT y Data Center.
Logicalis Now - Mayo 2014 | 25
SOLUCIONES
Infraestructura:
la era de la
automatización
Por Martín Bianco, Director de Edrans
¿Cómo realizar un cambio cultural en el área de IT que implique transformar lo que antes demandaba horas, semanas y
meses en segundos, horas y días? Descúbralo en esta nota.
Los equipos de trabajo a cargo de infraestructuras de IT se enfrentan a
menudo con el desafío de hacer más
rápido y seguro su trabajo, porque la
exigencia del negocio así lo requiere.
En ese marco, la pregunta recurrente
de los administradores de sistemas es
¿cómo hacer con las configuraciones de
servidores, el seteo de nuevas aplicaciones para “hacer correr ya”, los cientos
de nodos para administrar mientras
se apaga algún incendio en algún otro
lado?
La respuesta es Automatización. No es
ni más ni menos que llevar a la práctica un cambio cultural en el área de IT
que implique transformar lo que antes
demandaba horas, semanas y meses, en
segundos, horas y días.
PuppetLabs es el software de automatización que les proporciona a los administradores de sistemas la agilidad
operacional que necesitan. Este software no tiene piso ni techo, ya que puede
gestionar desde un grupo pequeño de
26 | Mayo 2014 - Logicalis Now
servidores hasta cientos de miles de instancias virtuales en la Nube.
Creado por y para administradores de
sistemas, Puppet surgió en 2005, aunque el primer release comercial salió en
2011.
Puppet es una aplicación para automatizar que, fundamentalmente, facilita
y agiliza todo lo que se ubique frente
a ella: tareas, configuraciones, tiempos
de producción y desarrollo, la comunicación y colaboración entre equipos
de trabajo, la escalabilidad del negocio,
entre tantos otros.
¿Por qué automatizar?
Puppet reporta grandes mejoras de productividad, de costos, de eficiencia en
nuevas decisiones de negocios. Entre
los principales beneficios se pueden remarcar cuatro aspectos que son fundamentales a la hora de automatizar:
∞ Productividad y eficiencia: las so-
luciones de IT Management estándar
permiten un manejo de 20 a 30 nodos
por administrador. Puppet lo eleva a
cientos e incluso miles de nodos por
cada profesional.
∞ Visibilidad: provee datos valiosos no
sólo de configuración de infraestructura sino también de todos los cambios
que se realizan sobre ella, ya sea que esté
bajo el control de Puppet o no, pudiendo prever el impacto en los niveles de
servicios.
∞ Escalabilidad: permite gestionar miles de sistemas en forma centralizada y
distribuir en forma segura y eficiente las
tareas en el equipo de trabajo.
∞ Consistencia: elimina cualquier inconsistencia (QA/Staging/Production),
asegura que los sistemas estén en el
punto deseado y mejora la velocidad de
implementación de nuevos servicios.
Puppet está desarrollado sobre tecnología open source con un lengua-
je muy simple de manejar y tiene la
ventaja de correr sobre todos los sistemas Linux (Solaris, HP UX, AIX,
entre otros) y Microsoft Windows.
Además, permite identificar a todos
sus equipos con el mismo code base.
Uno de los beneficios que encontramos en Edrans desde que empezamos
a implementarlo para diferentes empresas en todo el mundo es la satisfacción de cada administrador, sin
Todas estas herramientas de flexibilidad técnica tienen un impacto altamente positivo en el crecimiento de
la empresa porque no sólo por la optimización de recursos sino también
porque al agilizar los procesos y dar
seguridad a la infraestructura para
escalar hasta donde se quiera, logra
acelerar las decisiones de negocio.
importar el país o la industria que se
trate, porque dejaron de preocuparse
por cuántos servidores hay que configurar o si el script corre apropiadamente.
Manual
con Puppet
Productivity
50/100 nodos / admin
100s-1000s nodos / admin
Provisioning
días / semanas
Minutos / horas
Configuration Drift
Siempre presente
Nunca más
Visivility
Limitada
Todos los cambios
Software releases
Semanas o meses
días (incluso horas)
Define: With Puppet’s declarative
language you design a graph of
relationships between resources within
reusable modules. Theese modules define
your infraestructure in its desired state.
1
Itera
te
an
d
i
erage
Cov
se
a
re
nc
Report: Puppet Dashboard reports
track relationships between
components an all changes, allowing
you to keep up with security and compliance
mandates. And with the open API you can
integrate Puppet with third party monitoring
tools.
Simulate: With this resource graph,
Puppet is unique in its ability to
simulate deployments, enabling you
to test changes without disruption to your
infraestructure.
4
2
Desired State
x
Current State
Enforce: Puppet compares your
system to the desired state as you
define it, and automatically enforces it
to the desired state ensuring your system is in
compliance
3
Logicalis Now - Mayo 2014 | 27
SOLUCIONES
Automatización y
orquestación para
Data Centers
Conozca las soluciones de orquestación y automatización que pueden ayudarlo a simplificar tareas y reducir riesgos y costos
en su organización.
Ya es sabido que las empresas exitosas
no siempre son las más grandes, sino
aquellas que logran perdurar en el
tiempo. En este sentido, las compañías
deben estar preparadas para afrontar
los cambios y nuevos desafíos, sin dejar
de aumentar su productividad y eficiencia.
Para que esto sea posible, las compañías necesitan un área de Tecnología
madura, ágil y con una buena disponibilidad de recursos para la administración del Data Center. La caída de
una aplicación, server, red o storage
puede implicar fuertes impactos no
solo a su área, sino también a los resultados de la empresa. Esto aumenta
la responsabilidad y visibilidad de las
áreas de Tecnología e Infraestructura,
las cuales hacen un consumo intenso
de sus recursos profesionales, siendo
necesario, a su vez, un alto grado de
especialización.
La posibilidad de hacer el lanzamiento,
modificación, migración y correcta administración de las aplicaciones, Data
Center (físico y virtual), storage y redes
28 | Mayo 2014 - Logicalis Now
con una única herramienta, sin la necesidad de avocar los recursos más importantes de la empresa a ello, puede
ser un diferencial de negocio.
Actualmente, existen varias soluciones
de Orquestación / Automatización,
con diversas características, pero con
los mismos objetivos: simplificar tareas
repetitivas, reducir riesgos y costos.
Dentro de este mundo de orquestadores podemos encontrar:
Open Stack: Este producto nació por
un trabajo conjunto entre Rackspace
y la NASA. Gracias a sus excelentes
resultados y performance, muchas
empresas líderes del mercado (como
Cisco, IBM, RedHat y VMware, entre otros) decidieron involucrarse en
el proyecto.
UCS Director (Cloupia): Brindando
un único punto de control y administración, permite la convergencia entre
servidores (físicos o virtuales), Networking y Storage. Trabajando junto
con las tecnologías de Cisco (UCS y
Nexus), VMware, EMC, NetApp,
Hitachi, Windows, permite el aprovisionamiento de pools de equipamientos físicos, virtuales o bare-metal.
Esta herramienta permite al área de IT
trabajar de forma organizada, sencilla
y convergente, brindando un único
punto de control y reduciendo los
tiempos. Además, permite a los administradores reducir drásticamente el
tiempo en tareas repetitivas y/o complejas, ahorrando tiempo y dinero. Es
la mejor solución del mercado para
tecnologías Vspecs, Vblock, Flexpod
y/o VCE.
con una plataforma de virtualización
o Cloud, que desee agilizar el desarrollo y disponibilidad de sus aplicaciones de forma organizada, acompañada por el área de Sistemas.
Open Shift: Apadrinado por Red
Hat, Open Shift permite a los administradores y desarrolladores resolver
sus necesidades de forma rápida, organizada y respetando los estándares
que defina la compañía. Trabajando
de manera eficiente, granular y con
multi-tenants, permite la disponibilidad de VM’s y ambiente virtuales
de forma ágil para las nuevas aplicaciones, desarrollos, testing o QA
que se requieran desde desarrollo,
permitiendo que los desarrolladores
dediquen su tiempo a desarrollar y
testear sus aplicaciones, mientras que
los administradores disponibilizan y
administran los recursos de forma rápida y sencilla.
Gracias a su amplitud e integración
de estándares, este producto es ideal
para cualquier compañía que trabaje
Puppet: Consiste en una herramienta de aprovisionamiento y administración para la infraestructura de la
compañía. Gracias a la abstracción
de los recursos, permite a los administradores describir la configuración
en términos de alto nivel, tales como
archivos, servicios y paquetes, que
luego asegura que los servidores coincidan con la descripción provista.
Los líderes del mercado como Google, Cisco y VMware están invirtiendo fuertemente en Puppet, causando
así un crecimiento veloz dentro de
diversas compañías de distintos tamaños.
Su fácil instalación y lenguaje posibilitan poner esta robusta herramienta
rápidamente en funcionamiento.
Esto sumado a su administración, a
través de línea de comando o interfaz
gráfica, que permite que los administradores rápidamente adopten esta
herramienta como uno de los pilares
en sus tareas diarias, haciendo un uso
eficiente de su tiempo y reduciendo
el riesgo a fallas.
Albert Einstein dijo que “la definición de locura es hacer lo mismo una
y otra vez, esperando obtener resultados diferentes”. Hoy y siempre, el
desafío del área de IT es hacer más
con menos costos. En una era donde
existe una amplia variedad de tecnologías para que las empresas se renueven continuamente, es una “locura”
pensar que con las soluciones tradicionales de administración y gestión
se puede cumplir la tarea.
El Data Center pasó a tener un rol
fundamental en el éxito de la compañía. Para poder adoptar el cambio
de Data Center físico a uno virtual,
es necesario contar con herramientas
acordes a las necesidades que se presentan.
Logicalis Now - Mayo 2014 | 29
INTERVIEW
Cloud llegó a
Zonamerica Uruguay
Por Jaime Miller, CEO de Zonamerica
En esta entrevista, Jaime Miller, CEO de Zonamerica, comenta las principales características de este Parque de Negocios,
con status legal de Zona Franca, ubicada en Montevideo, Uruguay, que aloja más de 350 empresas, y la experiencia de
trabajo, junto a Logicalis, en la implementación de Cloud Computing.
Jaime Miller, CEO de Zonamerica, parque de negocios y tecnología
ubicado en Montevideo, Uruguay,
explica más acerca de esta Zona Franca, cuya extensión es de 92 hectáreas
y posee 28 edificios, y en la cual la
tecnología resulta factor clave para
atraer a las empresas.
¿Cuál es la razón de una Zona Franca en Uruguay?
Jaime Miller, CEO de Zonamerica
Muchas son las razones para la existencia de una Zona Franca en Uruguay. Sin embargo, el principal
motivo es la existencia de un marco
jurídico estable para desarrollar negocios desde acá hacia el mundo.
De por sí, Uruguay presenta un clima
de negocios favorable y competitivo,
apoyado en altos niveles de transparencia y democracia. En este sentido,
la Ley de Zonas Francas potencia esos
factores, aumentando así la competitividad del país a la hora de atraer
empresas internacionales y en la generación de empleo.
¿Cómo es el funcionamiento de Zonamerica?
30 | Mayo 2014 - Logicalis Now
Con 25 años de experiencia y siendo
pioneros en impulsar el concepto de
Zona Franca de Servicios, Zonamerica
se diferencia por la constante búsqueda de innovación y por ofrecer, a sus
clientes y a las personas, un espacio diferencial para impulsar el crecimiento.
El concepto “llave en mano” brinda a
las empresas un asesoramiento completo para realizar sus operaciones e
insertarse en el mercado global: Infraestructura, Arquitectura, Seguridad, Tecnología y Soporte a la hora de emplear
recursos humanos hacen de Zonamerica una solución completa, en cuanto a
infraestructura y servicios para instalar
una empresa en Uruguay , desde donde desarrollar negocios hacia la región
y el mundo. En definitiva, Zonamerica es un facilitador para la atracción
de inversiones en Uruguay, generando
hoy más de 9.500 empleos directos y
generando acerca del 1,5% del PBI del
país. Asimismo, la existencia de estas
empresas operando en Zonamerica,
que de otra manera quizás no hubiesen
elegido el país, implica también una
gran transferencia de conocimiento a la
fuerza laboral uruguaya.
¿Cuántas empresas forman parte hoy
de Zonamerica y qué rubros integran
mayormente?
Actualmente, Zonamerica cuenta
aproximadamente con más de 350 empresas instaladas. La capacidad de crecimiento y la flexibilidad han logrado
atraer a empresas de diversos rubros:
Servicios Globales, Estudios Legales,
Contables y de Consultoría, Headquarters Regionales, Centralización
Regional de Procesos Administrativos, Servicios de Banca Privada y Back
Offices Financieros, Desarrollo de Software, Servicios de Consultoría, Call
Centers y Tercerización de Procesos,
Servicios de Logística y Distribución
Regional, entre otros.
¿Cuál es el rol de la tecnología en Zonamerica?
A lo largo de sus 25 años, los conceptos diferenciales, como escalabilidad y
flexibilidad, han generado el constante
crecimiento de nuestros clientes. En
este sentido, el hecho de tener siempre
una amplia disponibilidad, rápidos accesos de construcción a demanda y una
apertura hacia diversos servicios para
captar diferentes mercados han sido
claves para generar un crecimiento sostenido.
En este contexto, la innovación es parte
del ADN de Zonamerica, por lo tanto estar a la vanguardia tecnológica es
uno de nuestros pilares fundamentales.
Nuestros clientes esperan el mejor servicio de apoyo a sus operaciones, por lo
que apuntamos siempre a una infraestructura de primer nivel, para brindar
seguridad y la tecnología necesaria para
insertarse en el mercado global. Esta
política se ha ido manteniendo a lo
largo de los años, teniendo el departamento de tecnología un rol clave a la
La implementación de Cloud Computing es el primer proyecto de gran
envergadura que realizamos con Logicalis.
hora de mantener, mejorar y ampliar la
capacidad y oferta de servicios tecnológicos.
A nivel tecnológico, ¿Qué ventajas
competitivas obtiene una empresa
que decide alojarse en Zonamerica?
A la hora de hablar de beneficios para
una empresa que decide instalarse en
Zonamerica, el rol de la tecnología resulta clave. Así, Zonamerica ofrece una
variada gama de ventajas y servicios ya
disponibles para quienes desean instalarse en el Parque: una red de alta disponibilidad ya instalada para el tráfico
de voz y datos, conectada con todos
los carriers disponibles, así como un
servicio privado de conexión con Estados Unidos que permite conectarse en
forma directa, a todos los proveedores
de internet a nivel mundial, servicios
de diseño e instalación de redes de voz
y datos, servicio de telefonía a través
de las centrales de Zonamerica o a través de PBX virtuales asignadas a cada
cliente. Asimismo, Zonamerica posee
sus propios Data Centers para brindar
servicios de Hosting, co-location o de
contingencia para DRP. Desde el año
pasado se incluyó, dentro del portfolio,
el servicio de Cloud Computing para
aquellos clientes que desean administrar en forma rápida, flexible y a bajo
costo necesidades de equipamiento.
¿Cómo fue la elección de la solución
de Cloud Computing de Logicalis?
Para el servicio de Cloud Computing
buscábamos una solución robusta y
que sea compatible con el modelo de
negocio tecnológico de Zonamerica
que está fuertemente orientado a las telecomunicaciones. Por otro lado, resultaba muy importante que el proveedor
cuente con una gran experiencia en el
mercado. De esta manera, para esta
implementación, elegimos a Logicalis
no sólo por la propuesta realizada sino
por la capacidad de respuesta y expertise que el desafiante proyecto requería.
¿Cómo fue la implementación con
Logicalis?
Fundamentalmente, el hecho de que
sea el primer proyecto de este estilo
en Latinoamérica resulta, de por sí, un
gran desafío, en tanto tuvimos que hacer nuestra propia experiencia e investigar, contando también con el apoyo
del fabricante para resolver las situaciones que se planteaban.
Actualmente, el Cloud brinda servicios a nuestros clientes brindando
máquinas virtuales on demand (servidores, escritorios remotos y PBX´s),
gestionado por nuestro equipo de
tecnología. Asimismo, también estamos en la etapa de implementación
de “Director”, que será la herramienta de auto provisioning que tendrán
nuestros clientes para satisfacer sus
necesidades de equipamiento virtual.
Hoy en día tenemos alrededor de 20
clientes, sin embargo, una vez finalizado el proyecto Director será exponencial el crecimiento.
Junto a Logicalis, este es el primer
proyecto de esta envergadura que
realizamos y, teniendo en cuenta los
avances, confiamos en que lograrán
los plazos y objetivos planteados.
Logicalis Now - Mayo 2014 | 31
NOTA TÉCNICA
Orquestación en el
ambiente de Tecnología
de la Información
Por Alexandre Nicolau, Especialista en Data Center PromonLogicalis
La orquestación está provocando una revolución sin precedentes en el mundo tecnológico, principalmente por el resultado
de la productividad y la agilidad en la entrega de recursos. Conozca más sobre este fenómeno en ascenso.
A mediados de 2007, las herramientas de automatización de Data Center
empezaron a ganar fuerza. En esa época, ese tipo de tecnología era conocida
como “Real Time Infrastructure” (o
“infraestructura en tiempo real”), y
usaban como atractivo para el mundo corporativo el aproximar la agilidad
existente en las decisiones de negocio a
la infraestructura de TI, que hasta entonces estaba bastante estancada y demandaba un tiempo significativo para
viabilizar los proyectos.
Alexandre Nicolau, Especialista en Data Center
PromonLogicalis
Con el advenimiento de la virtualización, y la agilidad que trae aparejada
para la disponibilidad de recursos,
TI pasó a ser presionada por el área
de negocios para mejorar la eficiencia
operacional. La respuesta del mercado
fue transformar el concepto de infraestructura en tiempo real en lo que hoy
conocemos como Cloud Computing,
que tiene a la orquestación como uno
de sus pilares estructurales.
El concepto de orquestación implica la
automatización, coordinación y geren-
32 | Mayo 2014 - Logicalis Now
ciamiento de sistemas computacionales complejos y servicios, realizados por
medio de un software o un conjunto
de softwares integrados que permiten
controlar las interconexiones e interacciones entre la infraestructura y las
premisas de las varias unidades de negocio involucradas, con sus respectivas
demandas.
La orquestación en el mundo de TI
permite agilizar las operaciones de
Data Center y aumentar la eficiencia gracias al concepto de “Run Book
Automation”, que corresponde a la
automatización de los procesos y procedimientos definidos para ejecutar
una tarea específica de TI, como por
ejemplo, crear un servidor de banco de
datos.
La creación de un servidor de banco
de datos exige diversas tareas que pueden consumir un tiempo significativo
del equipo de TI, tal como instalar el
sistema operacional, patches, todas las
aplicaciones involucradas, configuraciones, además del proceso de investi-
La creación de un servidor de banco de datos exige diversas tareas que
pueden consumir un tiempo significativo del equipo de TI
gación de la disponibilidad de recursos
en la infraestructura, para poner a disposición el nuevo recurso solicitado.
Por medio de la orquestación, todos
estos procesos pueden ser automatizados con base en las políticas existentes
de negocios y de TI, siempre siguiendo
las mejores prácticas, y garantizando
que no ocurrirá falla humana o negligencia en la ejecución de las tareas.
Esos procesos pueden conducir a la
reasignación de recursos para proveer
una infraestructura bajo demanda, que
mantenga los SLAs y metas de desempeño.
Otro aspecto positivo de la orquestación es que, además de la automatización de tareas, ese tipo de herramienta
permite continuamente el monitoreo
de los niveles de servicio y la realización de alteraciones en la infraestructura cuando sea necesario, para que esos
niveles de servicio sean garantizados,
expandiendo o contrayendo la infraestructura según se requiera, para soportar las necesidades del negocio.
tán siendo bastante beneficiadas por
cuenta de las herramientas de orquestación, al ofrecer ambientes de Nube
pública y/o privada para sus clientes,
una vez que el resultado de la productividad es muy significativo. Un
servidor que antes podría llevar meses para ser instalado en operación,
actualmente puede ser entregado en
20 minutos, gracias a los servicios
ofrecidos por empresas como Amazon, Google, Terremark, Savvis, solo
para nombrar las más conocidas.
Empresas como estas consiguen entregar servidores, almacenamiento
o aplicaciones, garantizando disponibilidad de un 99,95% y soporte
24x7, incluyendo protección en caso
de desastres. Muchos Data Centers
de empresas de gran tamaño de Latinoamérica no consiguen entregar
una infraestructura con esa disponibilidad, de modo que la adopción
de herramientas de orquestación o
la migración para esas soluciones en
nube están siendo consideradas por
empresas de todos los segmentos.
La orquestación provocó una revolución sin precedentes en el ambiente
de tecnología de la información,
principalmente por el resultado de
la productividad y la agilidad en la
entrega de recursos. Actualmente,
solamente un pequeño porcentaje de
las empresas en Latinoamérica adoptan herramientas de automatización
y orquestación en TI, quedando aún
mucho espacio para crecimiento en
ese mercado. Los niveles de automatización en Data Centers deben crecer considerablemente en la medida
de que ese tipo de tecnología se va
popularizando, y también con el
surgimiento de nuevos softwares.
Una verdadera revolución
está en camino, y esto es
solo el comienzo.
Para que el proceso de orquestación sea
eficiente es preciso también que ofrezca una gestión centralizada del grupo
de recursos monitorizados, incluyendo
facturación, medición y cobranza, asociando esos recursos a las áreas, grupos,
personas y empresas que los están utilizando a lo largo del tiempo.
Diversas empresas en el mercado es-
Logicalis Now - Mayo 2014 | 33
TENDENCIA
¿Qué es Big Data?
Actualmente, mucho se habla acerca de Big Data, pero ¿qué es realmente? Descúbralo en esta nota.
En pocas palabras, se puede describir
Big Data como un conjunto de diseños, plataformas y procesos partiendo
de una toma de decisiones.
En la actualidad, existen infinidades
de fuentes de datos: smartphones,
blogs, e-mails, YouTube, Instagram,
WordPress, Blogger, Foursquare, sensores de automóviles, maquinarias y
un largo etcétera. Con la proliferación de las redes sociales (Facebook,
Twitter y LinkedIn a la cabeza) y las
plataformas de la web 2.0, los blogs,
los foros de discusión, redes que interconectan usuarios, entre otros, las
personas dejaron de ser simplemente
usuarios de la información provista.
Ahora toman un rol muy importante, siendo uno de los principales generadores de este contenido subjetivo
que a las organizaciones tanto pueden
aportar. Así, la red dejó de ser un medio para informarse mediante noticias y artículos sobre datos objetivos.
Internet ya no es un repositorio de
información para los usuarios finales,
sino que se transformó finalmente
en una plataforma en la cual estos
pueden generar ellos mismos la información, y así dar a conocer sus
opiniones, pareceres y expresarse libremente. Claramente, el contenido
generado es altamente diverso y, por
sobre todas las cosas, subjetivo.
El contenido emerge desde blogs
personales, donde cada uno puede
plasmar su percepción sobre la última película en cartelera, opiniones
sobre un restaurante, comentarios
sobre una nota en un portal de noticias, recomendaciones y puntuaciones de hoteles, itinerarios de viajes y
excursiones, recomendaciones sobre
un nuevo producto adquirido y crítico sobre este, mensajes de todo tipo
que denotan su estado y muchos más
datos que pueden llegar a ser convertidos en información útil.
Optimizar costos, tener una visión del comportamiento y preferencia de los
consumidores, además de realizar un análisis de mercado y competencia,
son solo algunos de los análisis más realizados por Big Data.
El poder de Big Data se encuentra en
la capacidad de analizar estos datos recolectados a altas velocidades, teniendo como premisa que estos son útiles
en un primer instante y luego tienen
carácter meramente estadístico.
Optimizar costos, tener una visión
del comportamiento y preferencia de
los consumidores, además de realizar
un análisis de mercado y competencia, son solo algunos de los análisis
más realizados por Big Data.
¿Cuáles son las problemáticas del
negocio que puedo resolver?
No existe un único caso de uso para
Big Data. Algunos de los más comunes se detallan a continuación:
∞ Modelado de riesgos
∞ Análisis de riesgos
∞ Optimización de costos
∞ Análisis de fuga de clientes
∞ Análisis de comportamiento y preferencias en los consumidores
∞ Motor de recomendaciones
34 | Mayo 2014 - Logicalis Now
∞ Publicidad orientada
tado para Big Data, una plataforma
open-source que permite el procesamiento distribuido de grandes
sets de datos utilizando para ello los
nodos de cómputo que componen
el cluster. Está diseñada para escalar
desde un único nodo, paralelizando
el análisis sobre los nodos, logrando
una gran velocidad y tolerancia a fallos.
∞ Análisis de mercado y competencia
∞ Data Sandbox
∞ Búsqueda de mejora de calidad
Hadoop
Hadoop es el sistema base más adop-
Split
Map()
Map()
Map()
Reduce()
Map()
Reduce()
Output Data
Uno de los componentes más importantes de Hadoop es conocido
como MapReduce.
¿Cómo trabaja MapReduce?
Input Data
Map()
Apple, Yahoo!, Google, American
Airlines, Wal-Mart, eBay, New York
Times, LinkedIn, Agencia Nacional
de Seguridad de los Estados Unidos, Amazon son solo algunos de los
principales usuarios de este sistema
en América.
Map()
MapReduce divide los datos de entrada en subsets más pequeños para
ser distribuidos hacia los nodos. Estos serán los encargados de realizar la
función de Map, analizando el subset
de datos recibidos como clave, valor
(key, value) y entregando un resultado intermedio del análisis. Este resultado será entregado a todas las funciones Reduce, cada una de las cuales
se encargará de realizar un análisis
específico sobre los sets entregados
para dar como resultado final la información requerida.
Cómo trabaja Mapreduce
Logicalis Now - Mayo 2014 | 35
SOLUCIONES
ViPR:
la plataforma de
almacenamiento definido
por software de EMC
Cómo administrar la infraestructura de almacenamiento y los datos que residen en ella, permitiéndoles a las organizaciones
impulsar mejoras innovadoras en la automatización y establecer una arquitectura moderna para las implementaciones de
aplicaciones del futuro.
El EMC World 2013, que se realizó
en Las Vegas, fue el momento elegido por la compañía para presentar
ViPR, la primera plataforma de almacenamiento definido por software del
mundo. Con EMC viPR, los proveedores de servicios y los departamentos de TI consiguen aplicar el modelo
operacional de Data Center de escala
web sin la necesidad de contratar a
miles de expertos técnicos para desarrollar un ambiente personalizado.
ción. Los servicios de datos de objetos
de ViPR se integran con OpenStack
por medio de Swift y pueden ejecutarse en el almacenamiento empresarial o básico. EMC ViPR se integra
estrechamente con el Data Center definido por software de VMware mediante API estándares del sector e interactúa con Microsoft y OpenStack.
El controlador de EMC ViPR aprovecha las infraestructuras de almacenamiento existentes para cargas de
trabajo tradicionales, pero provisiona
nuevos servicios de datos de objetos
de ViPR –con acceso a través de las
API de Amazon S3 o HDFS- para
cargas de trabajo de última genera-
El controlador de EMC ViPR (el
plano de control, que administra la
infraestructura de almacenamiento)
puede brindar mejoras considerables
en la automatización porque visualiza
la infraestructura de almacenamiento
subyacente. Las funciones comunes
de administración de almacenamien-
36 | Mayo 2014 - Logicalis Now
Controlador de EMC ViPR: Plano
de Control
to, como el aprovisionamiento y la
migración, se abstraen para que diferentes arreglos de almacenamiento
puedan administrarse de la misma
manera que un solo recurso en pool.
Ahora, para la administración de estas
funciones altamente complejas, ViPR
ofrece un único enfoque interactivo
de señalar y hacer click. Los clientes
ya no necesitan involucrarse en la
tarea compleja y prolongada de interactuar con varias interfaces de administración que extienden arreglos de
almacenamiento heterogéneos.
Una vez creados, estos pools de almacenamiento se reparten para que
las aplicaciones los utilicen. Para esta
tarea, ViPR proporciona un portal
de autoservicio, de modo que los
ViPR ofrece una arquitectura
distribuida globalmente, lo
que permite a los departamentos de TI evitar transferir
grandes cantidades de datos
a través de la red y llevar a
cabo funciones como análisis
“en el lugar”.
propietarios de aplicaciones puedan
examinar el catálogo de servicios de
almacenamiento y provisionar recursos de servicios de la forma que mejor
se ajuste a sus necesidades.
Para la mayoría de las infraestructuras de almacenamiento tradicionales,
EMC ViPR proporcionará simplemente el plano de control. Este descubre almacenamiento, crea pools de
almacenamiento virtuales, provisiona
esos pools para la aplicación y luego
deja de invenir, no está presente en la
ruta de datos, que se deja para el propio arreglo. De la misma manera en
que los sistemas operativos cuentan
con inteligencia para detectar la presencia de elementos como coprocesadores de gráficos (y procesamiento
de descarga), el controlador de EMC
ViPR cuenta con inteligencia para
buscar elementos en la infraestructura de almacenamiento subyacente. Si
es posible descargar el procesamiento
en el arreglo subyacente y aprovechar
la inteligencia allí, lo hará.
Servicios de Datos de EMC ViPR:
Plano de datos
Para las cargas de trabajo tradicionales que utilizan archivos y bloques,
EMC ViPR no interviene en los procesos y deja que el arreglo subyacente
cumpla con la función del controlador de EMC ViPR plano de control,
o los datos almacenados en la infraestructura de almacenamiento. Esto
representa la mayoría de las cargas
de trabajo de aplicaciones dentro del
Data Center e EMC calcula que esas
cargas de trabajo crecerán aproxima-
damente un 70% hasta 2016.
ViPR es una solución única, en parte,
debido a su capacidad de visualizar
los objetos como archivos, lo que proporciona el rendimiento del acceso a
archivos sin la atención propia del
almacenamiento de objetos. Además,
el servicio de datos HDFS de ViPR
permite a los clientes realizar análisis
en el lugar en todo el ambiente de
almacenamiento heterogéneo. Como
consecuencia, la agobiante tarea de
administrar ambientes de almacenamiento heterogéneos se diluye, lo que
permite que TI se concentre en apoyar las prioridades del negocios y en
la innovación.
Dada la naturaleza de estas nuevas
aplicaciones, su arquitectura adquiere nuevas formas. La escala masiva
que requieren dicta un enfoque más
simple para la infraestructura del almacenamiento, específicamente, el
de objetos.
Los métodos de acceso también están cambiando de los protocolos
tradicionales como NFS e iSCSI a
nuevos protocolos como HDFS, el
cual adquiró su fama como la base
subyancente de la base de datos de
Hadoop. Con el fin de admitir estas
nuevas arquitecturas de aplicaciones,
los proveedores de EMC ViPR ofrecen servicios de datos de objetos.
Los servicios de datos de objetos de
ViPR proporcionarán a Amazon S3
y OpenStack Swift métodos de acceso mediante HDFS y API de REST
compatibles, por lo que las aplica-
ciones de software actuales escritas
en estas API deben poder ejecutarse
sin inconvenientes. Los servicios de
datos de objetos de ViPR admitirán
los arreglos actuales de EMC Atmos,
EMC VNX y EMC Isilon como una
capa de persistencia adicional al hardware comercial y los arreglos de otros
fabricantes. Esto permite al cliente
determinar, de acuerdo con las cargas
de trabajo de las aplicaciones, cuáles
deben ser las características adecuadas
en cuanto a rendimiento, calidad de
servicio y costo. Con el transcurso del
tiempo, EMC espera proporcionar
un conjunto más amplio de servicios
de datos como parte de la plataforma
ViPR.
Punto de diseño: la nube
Ante todo, EMC ViPR está diseñado
para ambientes de nube y, específicamente, para proveedores de servicios.
No obstante, esta solución también
es adecuada para la amplia variedad
de departamentos de TI empresariales que se transforman para ofrecer
TI como servicio y desarrollar nubes
web internas. Con esta noción en
mente, ViPR ofrece una arquitectura
distribuida globalmente, lo que permite a los departamentos de TI evitar
transferir grandes cantidades de datos a través de la red y llevar a cabo
funciones como análisis “en el lugar”.
A medida que aumenta la cantidad
de dispositivos y datos, la plataforma ViPR escala horizontalmente sin
puntos únicos de falla y proporciona
un ambiente que puede ser completamente autoadministrado y autoprovisionado.
Logicalis Now - Mayo 2014 | 37
SOLUCIONES
El futuro
de la nube
Por Bryan Che, Director Senior, Estrategia de productos de nube Red Hat
El mundo está evolucionando hacia un modelo de nube híbrido y heterogéneo. Del mismo modo en que las empresas
siempre han obtenido servicios y capacidades de diversos proveedores, necesitarán hacer lo mismo en su transición hacia
la nube.
Es sumamente importante que las
arquitecturas de nube empresarial de
próximo generación sean capaces de
incorporar una diversidad de tecnologías sin dependencia del proveedor
y con una interoperabilidad y portabilidad plenas. De lo contrario, todos
los beneficios que promete la nube
(es decir, mayor eficiencia, agilidad
y productividad, entre otros) serán
abrumados por la pesada carga de
gestionar el crecimiento desmedido
y la complejidad entre muchos silos
de nubes distintas e incompatibles.
Es por esto que Red Hat y Cisco se
unieron para el lanzamiento de Cisco
InterCloud.
Se integró OpenShift con el Catálogo de Servicios de Primer Nivel
de Cisco para que los desarrolladores puedan contar con un único portal para solicitar todos sus
servicios.
38 | Mayo 2014 - Logicalis Now
Diseño de la nube híbrida abierta
Cisco menciona las siguientes propiedades como atributos clave de su
enfoque de nube híbrida InterCloud:
∞ Ausencia de clientes cautivos de un
proveedor
∞ Cualquier sistema operativo para
cualquier proveedor
∞ Infraestructura heterogénea
∞ Seguridad integral
∞ Gobernanza-gestión y cargas de
trabajo unificadas
∞ Movilidad de cargas de trabajo entre nubes
Red Hat también se dedica a brindar
muchas de estas propiedades a sus
clientes. Entre la extensa cartera de
soluciones de software para ayudar
a que las empresas diseñen una nube
completa se encuentran Red Hat Enterprise Linux OpenStack Platform
y Red Hat Storage (a nivel de la In-
fraestructura como Servicio), Red
Hat JBoss Middleware y OpenShift
(a nivel de la Plataforma como Servicio - PaaS) y Red Hat CloudForms
para la gestión de nubes.
Cómo generar empowerment para
los desarrolladores en las nubes híbridas abiertas
Un ejemplo de cómo Red Hat y Cisco colaboran juntos para ofrecer una
nube híbrida abierta se da en el área
de la PaaS. Como parte del trabajo
entre ambas empresas, se creó un Diseño Validado (Cisco Validated Design o CVD) que incorpora a OpenShift (una PaaS completa de Red Hat
que posibilita que los desarrolladores
construyan nuevas aplicaciones en
un entorno rico y sumamente productivo) en las últimas versiones de
la Automatización Inteligente para
la Nube de Cisco (Intelligent Automation for Cloud) y del Centro de
Datos Virtualizado Multiservicio
(Virtualized Multiservice Data Center o VMDC). Esto significa que las
empresas ahora podrán construir una
PaaS poderosa con todo lo necesario,
desde un servidor Cisco subyacente y
el hardware para la conexión de red
hasta OpenShift. Además, se integró
OpenShift con el Catálogo de Servicios de Primer Nivel de Cisco para
que los desarrolladores puedan contar con un único portal para solicitar
todos sus servicios.
Esta oferta conjunta surge a raíz del
éxito común en la implementación
de OpenShift para el propio desarrollo interno de Cisco. Cisco fue uno
de los primeros en adoptar OpenShift Enterprise para el desarrollo de
sus propias aplicaciones y Red Hat se
complace de poder haber aportado
los beneficios en términos de productividad del desarrollador a los prestadores de servicios, al sector público y
a otras empresas.
Tanto Cisco como Red Hat comparten una visión y un enfoque comunes frente a las arquitecturas TI de
próxima generación y este trabajo en
conjunto es apenas un ejemplo de
colaboración brindar soluciones que
definen la industria para la nube híbrida abierta.
Logicalis Now - Mayo 2014 | 39
NOTA TÉCNICA
La nueva generación
de Data Centers,
SDN e Infraestructura
para Cloud
Por Fabián Dominguez, Data Center Business Development Manager Cisco
Ante la necesidad actual de plantear un nuevo enfoque de Data Center y Cloud, Cisco ACI (Aplication Centric Infraestructure) presenta una nueva arquitectura que tiene en cuenta las aplicaciones, la seguridad y la infraestructura coherentemente. Descubra el funcionamiento y los principales beneficios de ACI.
Fabián Dominguez, Data Center Business
Development Manager Cisco
40 | Mayo 2014 - Logicalis Now
La transición que hoy está ocurriendo en los Data Centers y cómo las
empresas utilizarán las aplicaciones y
la infraestructura de los mismos en el
futuro es seguramente el cambio más
dinámico que les ha tocado vivir a los
responsables de TI, independiente de
qué tipo de empresa consideremos. A
continuación, algunas significativas
cifras actuales:
m2) continuarán creciendo y en 2016
tendrán el 10 % del espacio total
ocupado por Data Centers.
∞ El Uso de Cloud Computing tiene
un CAGR de 36 % hasta 2016 impulsado mayormente por IaaS (Infraestructura como Servicio).
∞ Los Proveedores de Servicios de Telecomunicaciones seguirán liderando el
gasto de TI y tendrán ¼ del espacio de
todos los Data Centers para 2016.
∞ Virtualización y Cloud Computing:
el número de Workloads por cada Server tradicional instalado se incrementará de 1.5 en 2011 a 2 en 2016; sin
embargo el número de workloads por
cada Servidor en la Nube aumentará de 4.2 en 2011 a 8.5 en 2016. En
resumen, 2/3 de todas las Workloads
estarán procesando en la Nube.
∞ Los MEGA Data Centers (> 3,500
∞ En este sentido, el tráfico Global
∞ El tráfico IP Global de los Data
Centers alcanzará 6.6 Zettabytes para
el fin de 2016. Esto significa que el
tráfico se cuadruplicará si lo comparamos con 2011 o un CAGR de 31
% entre 2011 y 2016.
IP de Cloud alcanzará 4.3 ZettaBytes
para el fin de 2016 y crecerá 5 veces
respecto de 2011 o un CAGR de 44
% entre 2011 y 2016. El tráfico de
Cloud será 2/3 del tráfico de los Data
Centers para 2016, con esta distribución de acuerdo al destino:
∞ Dentro del Data Center (76%)
∞ Data Center a Data Center (7%) ∞ Data Center al usuario (17%)
¿Cómo cambian los desafíos de negocios con las tendencias del mercado?
Las demandas de los nuevos usuarios
y los cambios en las necesidades de las
aplicaciones de negocios imponen un
nuevo enfoque de cómo plantear una
nueva Infraestructura de los Data Centers y Cloud, que debe ser más simple,
ágil y centrado en las aplicaciones. Asimismo:
∞ Nuevos cambios de paradigmas
están redefiniendo IT, cambiando de
una economía basada en la Web a una
economía basada en las Aplicaciones.
Los nuevos modelos de consumo están cambiando rápidamente a Cloud
con foco en la integración Desarrollo
/Operaciones con el concepto de uso
desde cualquier dispositivo (fundamentalmente móvil).
∞ Los modelos de Administración
están cambiando de estar basados en
equipos individuales o silos a una visión mucho más holística. Los líderes
de aplicaciones y negocios necesitan
y esperan una infraestructura mucho
más simple, automatizada y ágil que
esté alineada a las necesidades del ciclo de vida de las aplicaciones, desde
su desarrollo hasta su implementación
y operación.
∞ Los Data Centers son el componente clave de este cambio. En los últimos
años han experimentado transiciones
en el cómputo, el almacenamiento, la
red y la administración de la infraestructura y aplicaciones; sin embargo
los cambios que vienen son aún mayores.
∞ Cloud, movilidad y Big Data están cambiando los paradigmas y esto
genera nuevas aplicaciones y cambios
en la infraestructura. Las aplicaciones
distribuidas (Big Data , Hadoop, etc),
las Bases de Datos (Oracle, SAP, etc)
que corren sobre baremetal o aplicaciones virtualizadas sobre ambientes
multi-hipervisores o aplicaciones basadas en Cloud con modelos a demanda,
todas imponen cambios en la infraestructura.
∞ Los modelos de Seguridad Informática han cambiado de un modelo
basado en protección del perímetro
a un concepto híbrido que debe contemplar los dominios físicos, virtualizados y Cloud. Al mismo tiempo, las
políticas de seguridad deben ser ágiles
para adaptarse a los cambios constantes de parámetros de tráfico basados
en un cambio de modelo de consumo
(Cloud y móvil). Por ejemplo, como
tratar la protección contra amenazas
en la comunicación entre máquinas
virtuales, cliente a aplicación o aplicación a aplicación.
∞ La tarea de optimizar la infraestruc-
tura para múltiples tipos de aplicaciones en el modelo actual de equipos individuales o silos y procesos manuales
entre distintos equipos del grupo de TI
es un desafío complejo. Por ejemplo,
aplicaciones de productividad como
Microsoft Exchange o de Web 2.0,
como Sharepoint, tienen requerimientos de seguridad y conectividad especiales, mientras que las aplicaciones de
I/O intensivo, como las Bases de Datos
SAP u Oracle, requieren performance
en el I/O (latencia y ancho de banda).
Las nuevas aplicaciones Cloud distribuidas y Big Data -como Hadoopemplean decenas o cientos de servidores con patrones de I/O únicos entre
servers y Terabytes de información que
requieren características de I/O para
tener performance óptima.
∞ Adicionalmente es imperativo proveer consistencia entre los ambientes
físicos, virtualizados y Cloud, incluyendo modelos multi-tenant y multi-cloud pero sin compromisos de escala, seguridad o respuesta en todo el
ciclo completo de vida de las aplicaciones. Para ello cada vez más se automatiza la interacción entre los múltiples
componentes de la Infraestructura.
∞ Para lograr una operación de TI
ágil y eficiente que cumpla con estos
requerimientos disimiles, los líderes de
TI buscan innovaciones que habiliten
la automatización de aplicaciones para
rápidos deployments de infraestructura, ajustes dinámicos a eventos en
tiempo real, visibilidad integrada con
monitoreo de performance y recuperación ante fallas con simplicidad y
control.
Logicalis Now - Mayo 2014 | 41
NOTA TÉCNICA
¿Cuáles son las limitaciones del
modelo actual de Infraestructura?
reducción de performance y agilidad
de nuevos desarrollos de servicios.
do en las aplicaciones y no una suma
de parches y “buenas intenciones”.
Los modelos que siguen las Aplicaciones están evolucionando independientemente y en paralelo a los modelos de
Infraestructura. Por ejemplo, muchas
aplicaciones asumen ancho de banda
infinito y la realidad es que las redes
son generalmente agnósticas a las aplicaciones que corren sobre ella.
Los modelos basados en Software y
las ofertas iniciales de modelos SDN
(Software-Defined Networking) han
intentado resolver esto con un modelo de virtualización de la red pero sin
una verdadera integración entre los
ambientes físicos y virtuales, lo cual ha
generado falta de transparencia y visibilidad con múltiples puntos de administración, modelos de licenciamiento
propietario, problemas de versiones
de software de control y consistencia
entre ambientes multi-hipervisor. El
mayor problema que tienen las propuestas iniciales de SDN es que no hay
una definición clara de lo que SDN es
y debe cumplir.
La Solución de Cisco: ACI (Application Centric Infrastructure)
El enfoque tradicional usa un modelo operacional basado en silos sin una
política operacional común entre las
aplicaciones, red, seguridad y teams
de Cloud. Esto impacta a la productividad, eficiencia y utilización de recursos, aumentando los tiempos de
implementación de aplicaciones y los
tiempos de respuesta.
Los modelos de administración son
mayormente basados en los equipos
individuales, lo cual incrementa la
complejidad. Esto fue aceptable en
modelos de TI estáticos, pero no lo es
más actualmente debido al dinamismo
de los ambientes de TI de hoy en día.
Aunque los nuevos modelos de Fabrics
tradicional permiten mayor escala, deben proveer mayor simplicidad aumentando la consistencia e integración entre
ambientes físicos, virtualizados y Cloud.
Los modelos de seguridad son estáticos
e inflexibles y muy a menudo se instalan, configuran y olvidan, generando
altos niveles de vulnerabilidad y políticas que no están atadas a los requerimientos de las aplicaciones actuales y
futuras. Hoy, el incremento de las medidas de seguridad trae aparejado una
42 | Mayo 2014 - Logicalis Now
Nuevas necesidades, nuevo enfoque
El nuevo enfoque debe ser simple, sin
comprometer la escala , tiempos de respuesta, seguridad y visibilidad end to
end de la Infraestrcutura. Asimismo,
debe ser:
∞ Con automatización y programabilidad de la red.
∞ Operacionalmente simple y que
abarque silos actualmente aislados
cono red, almacenamiento, cómputo,
aplicaciones, seguridad, Cloud, etc.
∞ Que mantenga la flexibilidad y velocidad de delivery del software pero sin
comprometer la performance o posibilidad de escalar del hardware.
∞ El modelo necesitaba construirse
desde la base para ser realmente centra-
El modelo ACI es una nueva arquitectura con un modelo operacional en el
cual las aplicaciones manejan el comportamiento de la red, permitiendo un
modelo de migración a las arquitecturas actuales. Los templates de políticas
pre-definen los requerimientos de las
aplicaciones y automatizan el aprovisionamiento de la red, servicios a las
aplicaciones, políticas de seguridad,
subnets de los tenants y demás detalles. Esta automatización reduce errores y el costo de TI, permitiendo un
deployment más acelerado y haciendo
el negocio más ágil.
Este enfoque permite, tanto a las aplicaciones tradicionales como a las aplicaciones desarrolladas internamente, usar esta
innovadora infraestructura de manera
simultánea, dinámica y escalable.
El Fabric centrado en aplicaciones
cumple este objetivo con una combinación de hardware y software estrechamente integrados para proveer
ventajas no disponibles en otros modelos (por ejemplo los modelos iniciales de SDN que son basados solo
en software)
Componentes principales del Fabric ACI
∞ Cisco Application Policy Infrastructure Controller (Cisco APIC)
El Cisco Application Policy Infras-
tructure Controller es el componente
principal de la arquitectura y contiene la automatización, programación
de políticas y administración del
Fabric (ACI Fabric) en un esquema multi-tenant. Cisco APIC es un
controlador en modalidad de cluster
que optimiza la performance, soporta
cualquier aplicación en cualquier lugar y unifica la operación de los dominios físicos y virtuales.
Cisco APIC presenta hacia arriba
una API mediante XML y JSON
y provee una interface CLI y GUI
para utilizar esta API para administrar el Fabric. Además, presenta hacia abajo una API open source que
permite a los proveedores de servicios de red implementar políticas
de control de dispositivos mediante
Cisco APIC.
Cisco APIC no forma parte del camino
del tráfico, lo cual permite que el FABRIC completo ACI siga funcionando
aún en situaciones en las que la comunicación con el cluster de APIC se haya
perdido. Cisco APIC es entregado en
modalidad appliance y normalmente se
utilizan varios en modalidad de cluster
por razones de performance, disponibilidad y redundancia.
de una manera lógica la cual se basa en
como la aplicación está diseñada y operada. Esta configuración y cumplimiento de sus políticas es entonces administrada automáticamente por el Sistema
en sí mismo mediante Cisco APIC y no
por un administrador manual.
∞ Application Network Profiles
Cisco ha ampliado la familia Nexus
con la nueva serie Nexus 9000 para
ambientes de Data Center tradicionales (sistema operativo standalone
NX-OS) y en escenarios ACI .Los
Nexus 9000 ofrecen configuraciones
fijas y modulares de 1/10/40 Gigabit
Ethernet. La capacidad dual mencionada permite a los clientes proteger
la inversión en su transición gradual
a ACI con solo un software upgrade.
Un Application Network Profile
(ANP) es una colección de grupos
de end- point lógicos representando
un set de servicios que son requeridos por la pólitica de una aplicación.
Crea la interdependencia de una aplicación con el Fabric.
Los ANPs son diseñados y modelados
∞ Nexus 9000 Switches para ACI:
Expandiendo la familia Nexus
Application Centric Infrastructure
Protección de la inversión
Nexus 9500
Nexus 9300
y 9500
APIC
Physical
Networking
Hypervisors and
Virtual Networking
®
Compute
L4-L7
Services
Storage
Multi DC WAN
and Cloud
Integrated
WAN Edge
Componentes principales del Fabric ACI
Logicalis Now - Mayo 2014 | 43
NOTA TÉCNICA
Innovaciones en la Serie Nexus 9000:
para agregación de 40 G
los 9396PX y 93128TX)
∞ Hitless ISSU y Patching: permite
actualizar el software del switch sin
disrupción en la operación o performance del switch
∞ Interfaces abiertas de programación con XMPP, XML/ JSON,
onePK open programming interface, Puppet/ Chef IT automation,
OpenStack resource orchestration y
acceso a Linux Shell
∞ Cisco Application Virtual Switch
(AVS) – Consistencia entre hipervisores: es un switch de networking
virtual para ACI que brinda consistencia virtual en ambientes de múltiples hipervisores para simplificar la
operación entre los dominios físicos y
virtuales. AVS es manejado tambien
por Cisco APIC.
∞ Circuito ASIC desarrollado por
Cisco permite 36 placas de línea
non-blocking 40 G.
∞ Terminación y routing de VXLAN
Nativo a 10 G line rate
∞ Menor consumo por port de la industria. 3.5W/10G and 14W /40G.
Ahorra 5000 KW por año por chassis
versus otros switches del Mercado
∞ Expansión de Power Supply para soportar altas densidades de ports de 100 G
∞ Menor costo en conectores ópticos
Cisco transforma la infraestructura de
los Data Centers de nueva generación
y Cloud con la arquitectura Centric
Infrastructure (ACI) que simplifica,
optimiza y acelera los ciclos de vida
completo de las aplicaciones.
Con una robusta integración entre
los elementos físicos y virtuales, un
modelo de ecosistema abierto, desarrollo de circuitos ASIC innovadores,
hardware y software, ACI (Application Centric Infrastructure) realiza
un desarrollo holístico desde las bases centrado en las aplicaciones. Este
encuadre único despliega un modelo
operacional basado en políticas que
44 | Mayo 2014 - Logicalis Now
Modelos de Nexus 9000:
∞ Cisco Nexus 9508 - 8 slot, 13 RU
chassis diseñado para alta densidad
End-of-Row (EoR) y alta performance 10/40GbE en layers de agregación.
Amplio rango de placas de línea en
cobre y fibra de 1/10 and 40GE.
∞ Cisco Nexus 9300 - configuraciones
fijas para escenarios Top of rack y Middle of row. Ofrece servicios non-blocking de layer 2/3 sobre puertos 1/10 y
40 Gigabit Ethernet y FCoE. (Mode-
opera sobre una red ACI, elementos
cómputo, almacenamiento y seguridad, uniendo los tradicionales silos
y drásticamente reduciendo costos y
complejidad.
Esta innovación redefine el poder de
TI para brindar las soluciones requeridas por las cambiantes necesidades
de los negocios y sus aplicaciones,
mejorando la agilidad y agregando
un valor nunca antes alcanzado.
Los principales beneficios de ACI
incluyen:
∞ Automatización simplificada por
∞ Cisco ASA 5585-x: forma parte
de la nueva generación de Appliances de seguridad y ha sido actualizado
y certificado para operar con la serie
Nexus 9000, tanto como switches
tradicionales o en ambientes ACI.
∞ ACI-ready virtual ASA (vASA)
tiene las mismas funciones que un
appliance ASA pero residente dentro
de un hipervisor.
un modelo basado en políticas por
aplicación.
∞ Visibilidad Centralizada con monitoreo real time del estado de las
aplicaciones.
∞ Flexibilidad vía Open software
para los teams de Desarrollo y Operaciones y nuestra comunidad de partners de ecosistema.
∞ Performance escalable y multi-tenancy en hardware.
∞ Capacidades Consistentes en los ambientes virtualizados y no virtualizados.
NOTA TÉCNICA
Soluciones
de replicación
entre Data Centers
Por Daniel Reggiani, Solutions Consultant de Hitachi Data Systems
En tiempos en que la calidad en el servicio exige maximizar cada vez más la agilidad en la respuesta al cliente y los datos
deben estar siempre disponibles y protegidos, las tecnologías de replicación asumen un rol más que importante para las
empresas.
Daniel Reggiani, Solutions Consultant de Hitachi
Data Systems
Por estos días, los negocios demandan la disponibilidad inmediata de la
información corporativa. La calidad
en el servicio obliga a una mayor agilidad en la respuesta a los clientes y,
en consecuencia, los datos tienen que
estar disponibles, accesibles y protegidos, incluso ante posibles fallas en
el normal funcionamiento de las operaciones, ya sea por razones internas
o externas. Con el crecimiento exponencial de los datos, esta tarea se hace
cada vez más compleja y demanda un
enfoque distinto al tradicional esquema de backup. Es en este punto en
donde cobran mayor importancia las
tecnologías de replicación para proteger la porción del negocio más crítica.
Las soluciones para replicación de
datos de Hitachi Data Systems permiten hacer frente a estos desafíos, en
base a una sola plataforma de almacenamiento o a través de múltiples
equipos en distintos Data Centers.
La habilidad de crear, mantener y
actualizar volúmenes de datos está
integrada dentro de las principales
funcionalidades del hardware de los
sistemas de almacenamiento y es gestionada por el software para la replicación. Además, permite eliminar o
acortar las ventanas de backup y optimizar los tiempos de recuperación
para lograr una mayor eficiencia en
función de los requerimientos del negocio, cumpliendo con los niveles de
servicio más exigentes.
Los sectores más demandantes en
todo el mundo, como salud, gobierno, fuerzas armadas, telecomunicaciones y banca, cuentan con soluciones altamente probadas de Hitachi
Data Systems, dentro de las cuales se
destacan las de replicación heterogénea, es decir, aquellas que permiten
replicar datos entre sistemas de distintas marcas, ya sea localmente o a
distancia.
Ventajas de la replicación heterogénea
Sin dudas, la replicación entre sub
Logicalis Now - Mayo 2014 | 45
NOTA TÉCNICA
sistemas de almacenamiento de diferentes proveedores es crítica para
la planificación de una estrategia de
continuidad de negocios efectiva en
términos de costos. La solución de
Hitachi Data Systems permite minimizar la complejidad en la administración del Data Center y reducir
la inversión relativa a los costos de
licencias de software de cada marca.
Con solo un set de procedimientos, herramientas y competencias, las pruebas de recuperación, ya sea regulares
o para entornos heterogéneos,
se hacen más confiables y accesibles.
46 | Mayo 2014 - Logicalis Now
Como las plataformas
empresariales
Hitachi
VSP y HUS VM proveen
a los entornos empresariales y de rango medio una interface común para agrupar
almacenamiento heterogéneo, utilizando el software para virtualización
se puede habilitar la replicación entre
ellos y, consecuentemente, de manera
transparente para el almacenamiento
virtualizado. De esta forma, utilizando una única herramienta para
replicar datos en una infraestructura
de almacenamiento por niveles, los
clientes disminuyen costos y acceden
a múltiples beneficios en la gestión
tanto en forma local como a distancia. Se destaca la funcionalidad que
entrega el software Hitachi Universal
Replicator, que permite realizar una
replicación asincrónica integrada optimizada y una mayor performance,
al mismo tiempo que reduce costos. Este software provee replicación
avanzada y basada en la controladora
a través de todos los sistemas de almacenamiento certificados para almacenamiento adjunto a las plataformas
Hitachi VSP y HUS VM. Ofrece
mayor robustez, reduce el impacto de
la replicación en las aplicaciones en
producción y baja los costos mediante una utilización eficiente del ancho
de banda, especialmente cuando hay
flexibilidad en la administración de
los RPO (Recovery Point Objective)
desde la perspectiva del negocio.
¿Cómo se realiza? Cuando se recaba
la información a ser replicada, el sistema de almacenamiento de Hitachi
del sitio primario escribe los registros
designados en un conjunto especial
de volúmenes especiales con perfor-
Configuración de tres Data Centers
Para ilustrar el funcionamiento de
estas soluciones, veamos el caso de
una compañía de comercio electrónico de Asia, de alto tráfico en
operaciones de compraventa, que
implementó una solución de recuperación ante desastres.
mance optimizada, llamados “journal”. Luego, el sistema de almacenamiento remoto lee los registros desde
los “journal”, descargándolos desde el
sistema primario a través de los enlaces de comunicación. Al realizar esta
operación, el software permite consumir menos caché del sistema, liberando recursos para las operaciones
de producción, ya que el movimiento
de datos lo realiza el sistema del sitio
secundario. De esta forma, con solo
un set de procedimientos, herramientas y competencias, las pruebas de
recuperación, ya sea regulares o para
entornos heterogéneos, se hacen más
confiables y accesibles.
Combinando el software Hitachi
Universal Replicator con las plataformas VSP o HUSVM, es posible llevar
adelante la continuidad de negocios
basada en una configuración que integra tres o cuatro Data Centers, con
menor complejidad, menores gastos
generales y un mayor rendimiento
en comparación con modelos tradicionales.
Con más de 100 millones en ventas,
9,3 millones de usuarios registrados
y dos millones de productos disponibles online, esta compañía se había
convertido en el sitio más visitado de
la región, reconocido por su rapidez
y seguridad en sus transacciones comerciales. Su crecimiento exponencial excedía permanentemente su
capacidad de expansión de la infraestructura de hardware de TI, perjudicando la performance de su base de
datos. Se detectaron frecuentes errores y las interrupciones en el traspaso
de información entre los servidores y
los procesos de backup se volvieron
cada vez más complicados.
La arquitectura de la base de datos
necesitaba un chequeo, pero era
riesgoso y consumía mucho tiempo,
a la vez que reemplazarla generaría
un gran desafío. Evitar la interrupción de las operaciones era vital para
asegurar su éxito a futuro.
De esta forma, la compañía decidió
que era fundamental la reestructuración de su configuración para recuperación de desastres, a fin de reducir
los costosos errores, mantener la estabilidad de los sistemas y soportar la
expansión de las operaciones.
Hitachi Data Systems diseñó en-
tonces un plan en base a una configuración de tres Data Centers y la
implementación de un sitio primario y dos secundarios. Este modelo
soportaría el respaldo continuo y
estable de la misma información
hacia ambos sitios, asegurando la
disponibilidad e integridad de los
datos críticos.
Se implementó un esquema mixto utilizando el software TrueCopy
para funcionalidades de sincrónicas
entre dos Data Centers, y con el
software Hitachi Universal Replicator, se logró unificar eficientemente
la solución con el tercer data center,
la cual cuenta con funcionalidades
únicas como “disk journaling” y replicación asincrónica con tecnología
“pull” impulsada por el sistema en el
sitio remoto. En lugar de utilizar memoria caché, la replicación avanzada
permitió minimizar los esfuerzos del
sitio de producción primario.
Los datos podrían ser copiados entre cualquiera de los sistemas soportados, sin importar las diferencias
entre los sistemas operativos o protocolos, permitiendo una máxima
flexibilidad para distribución de los
datos y las opciones de recuperación
de las operaciones.
Con esta implementación se aseguró la disponibilidad de las copias
actuales online en cada sitio de recuperación, garantizando la integridad
de la información corporativa, a través de una infraestructura confiable,
robusta y segura para lograr un nivel
de servicio ininterrumpido.
Logicalis Now - Mayo 2014 | 47
TENDENCIA
Apuntando a la
mejora del mundo
virtual corporativo
La plataforma de virtualización de desktops corporativos, conocida como VDI (Virtual Desktop Infrastructure), presenta
tantos beneficios para las empresas que es difícil explicar por qué aún no está plenamente difundida en el mercado y sea
utilizada como infraestructura standard de TI.
Entre la cantidad casi innumerable
de beneficios, ofrecidos por una infraestructura basada en desktops virtuales, se pueden destacar:
∞ Fácil gerenciamiento y manutención para el equipo de TI.
∞ Mayor control de las informaciones generadas y utilizadas por los
usuarios.
∞ Reducción del costo total de propiedad (TCO).
∞ Mejor productividad de los usuarios.
∞ La movilidad y flexibilidad para
los accesos externos.
∞ Mayor control de las aplicaciones
que circulan por la empresa.
Esta no es una tecnología necesariamente nueva, ya que desde 1998,
con el lanzamiento de Microsoft
Windows NT Terminal Server Edition, los fundamentos de la virtua-
48 | Mayo 2014 - Logicalis Now
lización de desktop ya habían sido
creados. Con ese sistema operacional girando en los servidores, el
usuario podría tener una sesión de
terminal disponible en su máquina,
con toda la carga de procesamiento
concentrada en el servidor de terminales, teniendo acceso a través de
un aplicativo cliente instalado en su
estación de trabajo. Básicamente el
aplicativo envía por la red señales de
control de teclado y mouse, y recibe señales de video actualizadas en
la misma frecuencia que si hubiera
alteraciones en su pantalla. Esto demanda bajos recursos computacionales y de red.
Con la tecnología de desktop virtual,
el computador utilizado por el usuario puede ser bastante más simple, de
manera que el único programa que
precisaría ejecutar localmente es el
correspondiente a la aplicación cliente para comunicar con el servidor,
siendo ésta responsable de ejecutar
toda la carga del procesamiento de
las aplicaciones que el usuario utiliza
diariamente.
La principal atracción comercial de la
virtualización de desktop se basa en
el hecho de que el usuario no precisa tener un equipo con alto poder de
procesamiento y con múltiples recursos (léase de alto costo), y que muchas
veces necesita ser renovado cada tres
años para ejecutar las tareas vinculadas
a su trabajo. Con un equipo potente,
lo que ocurre es un alto desperdicio
de recursos, teniendo en cuenta que el
procesamiento necesario para ejecutar
las tareas diarias de la gran mayoría de
los usuarios es bastante bajo.
Por eso, un único servidor de terminales podría concentrar decenas o
centenas de usuarios, sumando las
pequeñas cargas de procesamiento de
cada uno de los usuarios para evitar
desperdicios.
El equipo más recomendado como estación de trabajo es el llamado “thinclient”, que es un computador con
bajo poder computacional, y que presenta un costo menor que el desktop
tradicional además de consumir poquísima energía. En un mundo donde
el consumo de energía debe ser cada
vez más racional, este tipo de equipo
se adapta perfectamente ya que puede reducir el consumo de energía por
usuario hasta un 85%.
La tecnología de sesiones de terminales, sin embargo, tenía diversas
desventajas para el usuario siendo la
principal de ellas la pérdida de la individualidad. El usuario se sentía “preso”
porque en la sesión de terminal todos
los usuarios tenían que utilizar el mismo tipo de sistema operacional, con
las mismas configuraciones básicas, y
sin ninguna flexibilidad para la instalación de nuevas aplicaciones, a no ser
que ellas mismas fueran hechas por el
administrador de la infraestructura.
Con el advenimiento de la virtualización de servidores, la misma tecnología puede ser extendida a los desktops
virtuales, donde cada máquina virtual
posee su individualidad e independencia en relación a las otras instaladas en
el mismo servidor de virtualización.
De ese modo, el usuario recuperaría
parte de la flexibilidad que tenía con
un desktop físico. Ese tipo de tecnología basado en máquinas virtuales exige
una infraestructura más robusta y consecuentemente mucho más cara.
Para alivianar las altas inversiones necesarias en el momento de la adquisición de una infraestructura necesaria
para hospedar los desktops virtuales,
las empresas de tecnología crearon diversos recursos que permiten aprovechar de un modo mucho mejor los recursos existentes. Entre esos recursos,
está el compartir la memoria RAM
entre diversas máquinas virtuales en
una misma área de memoria física.
De esta manera, es posible hospedar
más desktops virtuales en un mismo
servidor, sin aumentar la cantidad de
memoria.
Un recurso semejante fue creado para
almacenar el disco virtual de los desktops virtuales, los llamados linked-clone. Con este recurso, es posible que
decenas de máquinas virtuales compartan la misma área en disco, para
bloques que sean iguales entre ellas,
por ejemplo: el sistema operacional.
Esto reduce bastante el área en disco
necesaria y también los valores de inversión.
El principal impedimento actual,
para que las empresas adopten la tecnología de desktops virtuales, se concentra en los costos de adquisición de
este tipo de proyecto. Aún con todos
los beneficios y ventajas que la tecnología puede ofrecer, el resultado casi
siempre es a mediano y largo plazo,
mientras tanto la cultura de las empresas es muchas veces direccionada a
resultados de corto plazo. Sin embargo, con el abaratamiento de algunas
tecnologías de las innovaciones que
economizan recursos, aliadas a la movilidad que los desktops virtuales proporcionan, éstos serán una realidad
cada vez más presente en el mundo
corporativo.
Uno de los recursos que permiten aprovechar de un modo mucho mejor los recursos existenteses el de compartir la memoria RAM entre
diversas máquinas virtuales en una misma área de memoria física. De
esta manera, es posible hospedar más desktops virtuales en un mismo
servidor, sin aumentar la cantidad de memoria.
Logicalis Now - Mayo 2014 | 49
SERVICIOS
Data Centers:
¿Cómo optimizar y
economizar su gestión?
Por Pedro Moura, Arquitecto de soluciones en servicios PromonLogicalis
Actualmente, los gerentes de infraestructura y de TI se enfrentan a una situación difícil. Se espera de ellos, más que nunca,
la capacidad de solucionar desafíos de integración de ambientes heterogéneos, el rápido crecimiento de datos y aplicaciones
de una misión crítica, y que atiendan niveles de servicio (SLAs) más altos de forma sustentable. El gran interrogante es
cómo hacer todo esto, y mucho más de manera eficiente.
Al lado de la necesidad de entregar
mejores niveles de servicios y mejor
capacidad de respuesta al negocio, la
reducción de costos en operaciones de
Data Center se aleja de la prioridad
de la mayoría de los gestores de TI.
En este sentido, en todo el mundo, las
organizaciones de TI están trabajando
para hacer más, con menos.
Pedro Moura, Arquitecto de soluciones en servicios
PromonLogicalis
50 | Mayo 2014 - Logicalis Now
Cuando se piensa en la mejor forma
de operacionalizar un Data Center,
la idea consiste en la posibilidad de
adquirir tecnologías de un único
proveedor (servidores, aplicaciones,
redes, storage, etc.). Sin embargo,
en la mayoría de los casos la realidad es completamente diferente de
esta utopía, resultando un dolor de
cabeza para los gestores de TI que
precisan aplicar esa heterogeneidad
en nuevos proyectos y demandas que
culminan en el aumento de la complejidad operacional de sus Data
Centers.
Además, la economía digital en la
que vivimos requiere conectividad
sin restricciones independientemente
de sus circunstancias. Sus empleados
necesitan del acceso a los datos en
todo momento, en todo lugar, usando
cualquier dispositivo, a fin de responder rápidamente a los clientes, cerrar
un gran negocio y manejar las operaciones diarias. Todo esto demanda
una mayor infraestructura de los Data
Centers y una arquitectura más flexible para el crecimiento abrupto. Pero
la búsqueda por escalabilidad con niveles de servicio con más performance
y rígidos puede ser muy costoso para
las corporaciones.
Frente a estas dificultades nace la necesidad de direccionar algunos puntos, que presentamos a continuación:
∞ Enfoque en su negocio
Es importante para las empresas,
principalmente de Latinoamérica,
donde aún pasan por las experiencias de outsourcing o multisourcing,
acostumbrarse a la idea de que alguien
puede operacionalizar mejor su Data
Center que uno mismo. Solucionar
los puntos ya mencionados de forma
más eficiente, pasa por la importancia
que las compañías le den a concentrar
esfuerzos en sus necesidades de negocio y compartir las responsabilidades
de los requerimientos técnicos con
empresas especializadas en tecnología.
Proveedoras de servicios avanzados de
TIC, como Logicalis, son capaces de
hacer más por su Data Center ya que
forman y contratan constantemente
los mejores profesionales, y capitalizan la experiencia de diversos clientes
con las más variadas tecnologías de las
últimas décadas. Toda esa experiencia
es compartida y aplicada, resultando
directamente en reducción de riesgos
en la operación del Data Center.
∞ Búsqueda por la “padronización”
La creación de patrones ayudará a
simplificar su infraestructura de TI y
operación de Data Center en varias
capas. Desde el proceso de la toma
de decisiones sobre nuevas compras
de equipos y software, costos de mantenimiento y principalmente costos
relacionados directamente con el día
a día de la operación.
Todo gestor se encuentra con la curva
de aprendizaje de su equipo técnico
cada vez que trae una nueva tecnología a su Data Center. Imagine la
responsabilidad de gerenciar cinco
diferentes sistemas de banco de datos, cada uno con sus procedimientos
operacionales propios. La necesidad
de conocimientos será diferente en
todos los niveles de la operación, desde el soporte final al usuario hasta el
especialista que ejecutará el troubleshooting en momento de crisis.
La padronización de su infraestructura de TI también traerá beneficios
valiosos ya que evitará en el futuro
problemas de incompatibilidad con
otras tecnologías ya implementadas
en el Data Center. En ambientes pluralizados cuanto más hardware y software adquirimos, más complicado se
vuelve aislar y resolver problemas.
Cuando padronizamos nuestras elecciones, hardware y software funcionan de forma más consistente y eficiente en todos los niveles.
∞ Evalúe constantemente nuevas
opciones
Las empresas deben continuar generando grandes volúmenes de informaciones y datos. El direccionamiento de esa situación – y de los posibles
problemas que ella genera – requiere
una estrategia más abarcativa que evalúe los escenarios constantemente y
proponga mejorías.
Actualmente la opción que se discute con muchos clientes es “¿Debo ir
hacia la computación en la Nube, sea
ella privada, pública o híbrida?”. La
respuesta a esta cuestión es ¡Sí!
Como cualquier medicina que tomamos para solucionar un problema, debemos evaluar la dosis de Cloud para
cada corporación y en cada ambiente.
Esa evaluación abarca términos técni-
Logicalis Now - Mayo 2014 | 51
SERVICIOS
cos, comerciales, legales y culturales.
El filtro más grande será en la comprensión de qué aplicaciones serán
migradas, cuál es el tipo de dato que
quedará almacenado en la nube, integración con ambientes internos y externos, seguridad, acceso, entre otros.
Muchos gestores continúan preocupados con este cambio porque desconfían de la capacidad de entrega de
la disponibilidad ofertada en la mayoría de los proveedores de servicio; sin
embargo, cuando se trata de inversiones para la creación de infraestructuras “multi-tenant” los valores son altos
y la confianza es el factor de éxito para
estos proveedores.
Los beneficios de ese análisis van mucho más allá de poder direccionar en
este artículo. Entonces, de forma resumida y entre los puntos más importantes, se puede destacar:
∞ Flexibilidad:
La capacidad de tratar demandas que
se mencionan inicialmente en este artículo es uno de los principales atractivos de la migración para Cloud.
pago. En algunos países existen beneficios fiscales cuando hay utilización
de OPEX.
∞ Recuperación de Desastre:
∞ Backup Automatizado
En la mayoría de las empresas, las
aplicaciones y ambientes crecen y se
vuelven tan importantes, por lo que
en determinado momento es necesario pensar en un plan de continuidad
de negocios que invariablemente costará una considerable suma de dinero.
Los datos de sus aplicaciones serán
replicados y almacenados para que
puedan ser restaurados rápidamente
cuando sea necesario. De esta manera,
hay una preocupación menos para su
equipo de TI.
Las proveedoras de soluciones en Nube
– incluyendo Logicalis – piensan en
este tema desde el inicio. La infraestructura multi-tenant fue concebida
con la capacidad de replicación necesaria para casos de desastre causados por
la naturaleza o por el propio hombre.
∞ CAPEX vs. OPEX:
La frase “pague de acuerdo a lo que
necesite” es el dilema de los proveedores de servicios en Nube. Ese beneficio puede ir más allá de la forma de
La infraestructura multi-tenant fue concebida con la capacidad de replicación necesaria para casos de desastre causados por la naturaleza o por
el propio hombre.
52 | Mayo 2014 - Logicalis Now
∞ Infraestructura top-class
La obsolescencia de hardware y software no será más una preocupación
para su empresa. Eso es tratado por
el prestador de servicios que entregará
servidores, redes y demás equipos de
tecnología lo más avanzada posible.
Para aquellos ambientes que pasen
por el análisis técnico, la migración
en dirección a la Nube traerá reducción de costos operacionales, volverá
más ágil nuevas implementaciones y
aumentará su productividad considerablemente.
Logicalis ofrece consultoría en estos y
otros puntos, además de ser capaz de
proveer la mejor solución que atienda
a sus necesidades de negocio y posibilite el crecimiento sustentable de sus
operaciones de Data Center.
NOVEDADES
Conozca las
principales
novedades
de Logicalis
Logicalis América Latina fue premiada en el Cisco Partner Summit 2014
Nuevamente, Logicalis América Latina, proveedor de servicios y soluciones de la información y la comunicación (TIC) en América Latina, se
destacó como uno de los principales
socios de Cisco en la región.
Cisco, Socio del año de Cisco Capital
y Excelencia Arquitectónica: Proveedores de Servicios. Por su parte, en
Cono Sur, Logicalis fue galardonada
como Socio del año para el mercado
corporativo.
Durante el Cisco Partner Summit
2014, el evento más importante para
los socios de Cisco, realizado en Las
Vegas (Estados Unidos), la compañía
fue nombrada Socio del año de América Latina en las categorías Service
Provider Cloud Builder y Servicios.
“Los premios han recompensado el
excelente trabajo entre los equipos de
Logicalis y Cisco en toda la región.
Principalmente, se destaca el reconocimiento como Partner de Servicios
del año, que se ajusta plenamente a
la estrategia de construcción de una
propuesta de servicios de alto valor
agregado en las TIC”, asegura Rodrigo Parrera, CEO de Logicalis América
Latina.
Además de los tres premios regionales, en Brasil, PromonLogicalis fue
reconocida como Socio del año de
Para el logro de premios, Logicalis
América Latina alcanzó los más altos
estándares en diseño, implementación, gestión, operación y soporte de
infraestructura compleja, posicionándose como el socio ideal de las TIC en
una coyuntura marcada por desafíos,
presupuestos magros y la tendencia de
un rol más estratégico del CIO.
Logicalis Now - Mayo 2014 | 53
NOVEDADES
Logicalis Paraguay cumplió 13 años
El pasado mes de marzo, la oficina
de Logicalis Paraguay celebró su
decimotercer aniversario. Fundada
en 2001, Logicalis Paraguay S.A.
rápidamente la empresa logró posicionarse a través de proyectos de
gran envergadura tanto en el sector
de las telecomunicaciones como en
el mercado.
“En Logicalis hacemos foco especial
en satisfacer las necesidades que los
clientes presentan, convirtiéndonos en un socio estratégico, por eso
proyectamos nuestro enfoque de
acuerdo con sus necesidades, tanto
en términos tecnológicos como en
relación a los modelos comerciales
y de entrega”, cuenta Antonio Domínguez, Country Manager de la
sucursal.
La sucursal de Paraguay logró insertarse con fuerza en el mercado
Equipo de Logicalis Paraguay
gracias al trabajo serio, profesional
y mancomunado de todos los integrantes del staff. Al respecto, Domínguez señala: “Estos 13 años nos
encuentran más que fortalecidos y
con el firme propósito de seguir creciendo como sucursal y, en lo personal, cada uno como profesional”.
“El principal desafío con el que contamos a nivel local es el de posicionarnos como el mayor integrador de
servicios y soluciones IT, ofreciendo
a nuestros clientes servicios y soluciones innovadoras, para que puedan
optimizar sus negocios. Para eso trabajamos día a día”, agrega.
Logicalis renovó su website institucional
Logicalis presentó su nuevo website
corporativo, un sitio reestructurado
globalmente, basado en tecnologías
actuales como HTML5 que ofrece
una vista más amigable, una mayor
facilidad de navegación y dinamismo.
En América Latina, las empresas del
grupo Logicalis pasan a tener un único sitio, con informaciones consolidadas de los diez países en los que actúa.
“En el proceso de construcción del
nuevo sitio, reunimos y unificamos
los contenidos relacionados a nuestra actuación en toda la región, proporcionando un intercambio de ex-
54 | Mayo 2014 - Logicalis Now
periencias entre los equipos. Como
resultado, pasamos a posicionarnos
también en la web como una empresa
de alcance regional, de referencia en el
mercado latinoamericano”, señala Renata Randi, Directora de Marketing
y Alianzas.
En la construcción del nuevo sitio se
optó por tecnología de avanzada y
utiliza la novedad de geolocalización,
que permite identificar la localidad
del usuario por GPS o dirección IP y
direccionarlo para el sitio en su idioma, ofreciendo informaciones específicas de manera más simple y precisa.
-
Otra actualización en el sitio, que permanece con la misma dirección (www.
la.logicalis.com), está en la utilización
de una plataforma actualizada y basada en HTML5, lenguaje multimedia
compatible con computadoras, tablets
y smartphones.
Logicalis Now - Mayo 2014 | 55
56 | Mayo 2014 - Logicalis Now
Descargar