Upgrade a vCenter Server 5.0

Una serie de articulos detallando el proceso de Upgrade a vCenter Server 5.0

Upgrade a ESXi 5.0

Una serie de articulos detallando el proceso de Upgrade a ESXi 5.0

Instalación de ESXi 5.0

Una serie de articulos detallando el proceso de Instalación de ESXi 5.0

Configuración iSCSI en vSphere 5.0

Una serie de articulos dedicados a la configuración de iSCSI en vSphere 5.0

Reconocido como vExpert 2011

Reconocido como vExpert 2011

VMware View 4.5

Una serie de articulos dedicados a View 4.5 y todas sus nuevas funcionalidades.

VMware View Transfer Server 4.5

Una serie de articulos dedicados a View Transfer Server y sus caracteristicas.

VMware View Composer 2.5

Una serie de articulos dedicados a View Composer y sus caracteristicas.

Cluster MSCS Across Boxes en vSphere 4.1

Serie de articulos detallando el proceso de creación y configuración de un cluster MSCS en configuración Across Boxes en vSphere 4.1

lunes, 30 de enero de 2012

Como funciona vMotion y las mejoras incluidas en vSphere 5


Hola a todos, en el siguiente post hablaremos un poco sobre vMotion y su funcionamiento.  Además hablaremos de las novedades de vMotion incluidas en vSphere 5, las cuales no han sido muy promocionadas al lado de otros anuncios, pero que claramente mejoran el funcionamiento de esta funcionalidad esencial en un entorno VMware.

vMotion es una tecnologia que permite la migración "en caliente" de una MV desde un host a otro, sin un impacto apreciable por el usuario final.  Además, vMotion es la pieza clave de otras funcionalidades como DRS y DPM.

Como funciona?
Al usar vMotion para mover una MV de un host a otro se transfiere el estado de ejecución completo de la MV desde el host de origen al host de destino, utilizando una conexión de red de alta velocidad.  El estado de ejecución consiste de 3 componentes principales:

Estado de dispositivos virtuales: Incluyendo el estado de la CPU, red, adaptadores de disco, etc.  vSphere puede serializar el estado de los dispositivos virtuales, lo cual generalmente tiene un tamaño menor a 8MB.  En algunos casos puede crecer por sobre los 128MB, lo cual de igual modo puede ser transferido muy rapidamente en una red de alta velocidad.

Conexiones de dispositivos de red y SCSI: La arquitectura de red virtual de vSphere centrada en los vSwitch y en las NIC virtuales (vNIC), permite que sea facil preservar las conexiones de red existentes, incluso despues que una MV es migrada a otro host.  Hay que recordar que cada vNIC tiene su propia MAC Address que es independiente de la MAC Address de las NIC fisicas, por lo que al mover una MV de un host a otro, la conexión a red permanecerá activa, mientras el host de origen y el host de destino se encuentren en la misma subred.  Una vez que la migración se completa, el host de destino envia un paquete RARP al Switch fisico para asi asegurar que el Switch actualice sus tablas con el nuevo puerto de Switch utilizado por la MV migrada.
Por otro lado, el uso de almacenamiento compartido como SAN o NAS hace que sea muy facil transferir el estado de los discos

La memoria fisica de la máquina virtual: Este es por lejos el componente de mayor tamaño que necesita ser transferido durante una migración con vMotion.  Hay que recordar que una MV puede llegar a tener hasta 1TB de memoria asignada, por lo que la eficiencia en la transferencia de la memoria es un punto critico en vMotion.
Para permitir que la MV continue ejecutandose durante la transferencia de la memoria, y que este proceso sea transparente para el usuario, el proceso deberá llevarse a cabo en multiples fases:

  • Fase 1: Seguimiento de la MV.  Durante esta etapa, se realiza un seguimiento de las paginas de memoria de la MV, para asi poder registrar cualquier modificacion realizada en la MV durante la migración.  Este seguimiento puede causar una baja considerable en el rendimiento de la MV.  Este impacto es proporcional al tamaño de la memoria de la MV.
  • Fase 2: Pre-copia. Debido a que la MV continua en ejecución y modificando el estado de la memoria en el host de origen durante esta fase, el contenido de la memoria de la MV es copiado desde el host de origen al host de destino en un proceso iterativo.
    Con la primera iteracion se copia todo el contenido de la memoria.  En las siguientes iteraciones, se copian solo las paginas que fueron modificadas durante dicho periodo.  El numero de iteraciones y de paginas de memoria copiadas durante cada iteracion, depende de que tan activamente es utilizada la memoria debido a las operaciones realizadas dentro de la MV.
    Durante esta fase, el impacto mayor es en el uso de la red de vMotion, sin un uso significativo de ciclos de CPU en la MV.  El impacto en la performance de la MV es menor reduciendo la velocidad de escritura de paginas de memoria.
  • Fase 3: Switchover. Esta es la fase final del proceso de vMotion, donde la maquina virtual es pausada momentaneamente en el host de origen, para asi poder copiar los ultimos cambios en la memoria al host de destino, y que finalmente la maquina virtual retome sus operaciones en el host de destino.  Aunque la duración de esta fase es normalmente de menos de un segundo, es la fase en que más probablemente se percibirá un impacto en la performance de la MV, con un aumento de la latencia abrupto y momentaneo.  El alcance del impacto depende de varios factores, como la infraestructura de red, el almacenamiento, el hardware utilizado en los hosts, version de vSphere, etc.


Mejoras en vSphere 5
vSphere 5 trae importantes mejoras en vMotion, lo cual mejora considerablemente la performance.

Uso de multiples NICs para vMotion
En vSphere permit utilizar multiples adaptadores de red para vMotion, reduciendo dramaticamente los tiempos de migración.


Con esta funcionalidad, el VMkernel balanceará en forma transparente el trafico de vMotion entre todas las vmknics configuradas para vMotion, de manera de saturar todas las conexiones.  Incluso durante una unica operación de vMotion, el VMkernel utiliza todos los adaptadores de red disponibles para distribuir el trafico de vMotion.

En algunas mediciones se han encontrado mejoras de más de un 30% en la performance de las operaciones de vMotion.

Metro vMotion
En vSphere 5 se introduce una nueva caracteristica de Metro vMotion que es Latency-Aware, que provee de mejor performance en redes de alta latencia, y además aumenta el limite de latencia en redes de vMotion de 5 milisegundos a 10 milisegundos.

Stun During Page Send (SDPS)
vSphere incluye nuevas mejoras para asegurar que vMotion no fallará debido a problemas en la copia de la memoria.  Recordemos que el proceso de transferencia del contenido de la memoria durante una operacion de vMotion incluye un proceso iterativo.  En la mayoria de los casos, una iteracion debiera tomar menos tiempo que la iteracion anterior, no obstante, en algunos casos donde la MV modifica la memoria más rapido de lo que puede ser transferida (por ejemplo por limitaciones en la red de vMotion), resultaba en una operacion fallida de vMotion en vSphere 4.1 y versiones anteriores, debido a que el proceso iterativo no generaba ningun progreso en la transferencia.

Ante la presencia de estos casos, las mejoras introducidas en vSphere 5 reducen la velocidad de la máquina virtual, asegurandose que la tasa de modificación de la memoria sea menor que la tasa de transferencia, evitando asi fallas de vMotion.

Otras mejoras en la performance de vMotion
vSphere 5 incluye otras mejoras en la performance de las operaciones de vMotion:

  • Mejoras significativas para minimizar el impacto de la tarea de seguimiento de los cambios en la memoria.
  • Numerosas mejoras para reducir el tiempo necesario para que la MV retome un nivel normal de performance despues de una operacion de vMotion.
  • Optimizaciones que permiten que vMotion sature en forma efectiva un ancho de banda de 10GbE durante una migración con vMotion.

Espero les haya resultado interesante.  Si tienen cualquier pregunta, no duden en dejar sus comentarios!

miércoles, 25 de enero de 2012

VMware finalmente lanza vCenter Operations Management Suite!

Hola a todos!

El dia de hoy VMware acaba de lanzar finalmente su nueva suite de gestión "vCenter Operations Management Suite", la cual habia sido anunciada previamente en el VMworld 2011 en Copenhagen.



Esta suite permite gestionar la performance de la plataforma VMware recolectando las estadisticas desde vCenter Server creando una serie de interfaces que nos entregan información sobre el estado de nuestra plataforma.  No solo eso, un gran factor que diferencia esta suite de otras soluciones similares, es la habilidad de preveer el crecimiento en el uso de recursos y posibles problemas de performance que se puedan presentar, realizando una serie de analisis a partir de la información estadistica existente.

Esta nueva suite presenta un dashboard o panel de control completamente nuevo, y además se incluye las funcionalidades de CapacityIQ y otras herramientas de analisis.  El objetivo es darle al area TI la información que necesita para determinar la mejor distribución de recuros, y tomar las acciones preventivas que sean necesarias en forma proactiva.

vCenter Operations Management Suite está formada de 2 componentes, los cuales detallaremos a continuación, y que se encuentran fuertemente integrados entre ellos.

vCenter Operations Manager 5.0
En esta nueva versión, vCenter Operations incluye:

  • Gestionar la performance y capacidad de multiples servidores de vCenter.
  • El Dashboard ahora incluye más información relevante, asi como marcadores mejorados para medir la salud, el riesgo y la eficiencia de la infraestructura virtual.
  



  • Se incluyen tambien las llamadas "Smart Alerts" o alertas inteligentes.  Estas son basicamente alertas proactivas que proveen de una advertencia temprana sobre posibles issues, de manera que el personal de TI pueda identificar cualquier problema de salud, performance o capacidad  antes de que este se produzca y afecta el funcionamiento de la plataforma, impactando a los usuarios.  Se incluye un analisis automatico de la causa raiz de las alertas, de manera de poder enfocarse justamente en la causa raiz en vez de enfrentarse a alertas falsas.



  • Ahora CapacityIQ se encuentra integrado con vCenter Operations, de manera de poder correlacionar los datos de capacidad, utilización, eficiencia y riesgo, asi como permite tambien conseguir la utilización optima de la plataforma e identificar los recursos que están siendo desperdiciados.


 


  • Del mismo modo, en algunas ediciones de la Suite, se incluirá vCenter Chargeback Manager 2.0, de manera de poder realizar mediciones de costos, asi como analisis y reportes de la capacidad, desde el punto de vista financiero.
  • vCenter Operations Manager 5, incluye tambien, de manera integrada, a vCenter Configuration Manager, que permite realizar una correlacion automatica de los eventos de cambios en la plataforma, con la información de performance y salud.  De esta manera, si se detecta algun problema de performance, será posible determinar si está relacionado a algún cambio realizado.





vCenter Infrastructure Navigator 1.0 


Esta herramienta incluida en la suite permite descubrir aplicaciones (Application Awareness) en la infraestructura, y mapear sus dependencias para asi poder lograr una mayor visibilidad de las aplicaciones que se están ejecutando en las MVs, y sus inter-relaciones.  Se integra facilmente con vCenter Server, y provee de un descubrimiento continuo de aplicaciones y sus dependencias en la plataforma virtual.



Application Awareness incluye además una base de conocimiento que ayuda a identificar en forma facil y precisa las aplicaciones.

vCenter Infrastructure Navigator, se integra además con Site Recovery Manager para asi descubrir las interdependencias incluidas en los planes de protección de SRM.



Con estas herramientas es posible entender como un problema de performance podria afectar a una aplicacion incluyendo sus dependencias.  Por ejemplo, problemas en un servidor de base de datos podría afectar a un servidor web o un servidor de aplicaciones.

Comentarios Finales
vCenter Operations Management Suite  se licenciará por MVs, y las licencias se vendrán por paquetes de MVs.  Una vez que se cuente con los valores finales, podremos ver que tan competitiva puede ser esta solución de gestión de performance, respecto a las soluciones de terceros existentes en el mercado.  Cabe recordar que hasta ahora, el valor de las licencias de vCenter Operations ha impedido una adopción más rapida de esta excelente solución.

Resumiendo, vCenter Operations Management Suite permite:

  • Una interfaz integrada y altamente automatizada para la gestión de performance, capacidad y configuración.
  • Consola de administración que permite integrarse con soluciones de terceros.
  • Analisis de cumplimiento y remediación continuos.
  • Capacidad de analisis que permite que la solución aprenda por si misma el comportamiento "normal" en un ambiente dinamico como lo es una infraestructura virtual.

Finalmente, recordar que la gestión de la performance se vuelve cada vez más importante en una plataforma virtual, más aun cuando la infraestructura va creciendo en el tiempo creando más MV y/o agregando recursos a las MVs existentes.  Por este motivo, soluciones como la que se esta lanzando en esta ocasión, nos facilitan la vida a la hora de gestionar los recursos en VMware.

Ahora solo queda ver esta suite en accion, y espero poder presentarles un informe más acabado sobre su funcionamiento.

martes, 17 de enero de 2012

Llevar o no nuestros servicios a la Cloud?


Ya hemos hablado hace poco sobre lo que es Cloud Computing y sus diferentes beneficios, pero no todo es color de rosas...  Es importante que discutamos las eventuales desventajas del Cloud Computing, o en que circunstancias no es apropiado para una compañia, especificamente cuando hablamos de una Cloud Pública.

A continuación detallaremos algunas desventajas o contraindicaciones respecto a migrar a una infraestructura de Cloud Pública.

  • Servicios poco personalizables:  Por lo general, las aplicaciones incluidas en el esquema SaaS son algo de lo que podemos disponer, pero no modificar.  Que implica esto, que si un cliente requiere de funcionalidades especificas para su negocio, como se hace usualmente con el software a medida, no va a poder obtenerlo en la nube.
  • Alta latencia: Este es uno de los grandes problemas a los que se enfrenta una infraestructura de nube publica, al utilizar las conexiones WAN con las que el usuario accede a sus servicios en la nube.  Esto hace que una nube publica no sea recomendable en situaciones donde se ejecutarán aplicaciones con grandes cantidades de datos que requieren una muy baja latencia y/o fuertes requerimientos de transferencia de datos.
  • Privacidad y Seguridad: El reto más grande al que se afrontan las compañias que quiere llevar sus servicios a la nube, es la privacidad y seguridad de los datos.  Si bien el proveedor se comprometa a mantener controles de seguridad en la infraestructura y a asegurar la privacidad de la información que almacenan, aun permanece latente el riesgo si consideramos que la información se encontrará viajando permanentemente en la red, y será almacenada en una infraestructura que no puede ser controlada directamente por el cliente.  En consecuencia, en una Cloud pública permanece el riesgo de que la información sea interceptada o modificada por terceros.
  • Regulaciones y Legislación Vigente: Donde debemos considerar que aun no existe un marco legal para ambientes de prestación de servicios en la nube.  Consideremos que no es posible delegar la responsabilidad sobre la información, por lo que ante los organismos reguladores es la empresa la responsable de la información, aun cuando no tenga un control sobre la infraestructura donde esta información se hospeda.  Es muy importante entonces averiguar con que medidas de seguridad y privacidad cuenta el proveedor.  En consecuencia, una nube pública no es lo más recomendable en situaciones donde se necesita cumplir una serie de regulaciones de seguridad requeridas por aspectos legales.


Resumiendo un poco lo que ya he expuesto, Gartner ha identificado los 7 principales obstaculos en el camino a la Cloud:

  • La confianza del proveedor: Externalizar sus aplicaciones y datos corporativos conlleva hacerlo con alguien de total confianza, que le asegure la calidad del servicio, los términos de confidencialidad de su relación contractual, etc.
  • Conformidad legal: Al final, el responsable en caso de infracción es el propietario de la información. Por ello, los proveedores de Cloud Computing deberán estar abiertos a cualquier tipo de auditoría externa y a tomar y cumplir cuan medida sea necesaria para garantizar el cumplimiento de la normativa y, con ello, la seguridad de sus clientes.
  • Localización de los datos: Es uno de los puntos fuertes del Cloud Computing pero también uno de sus riesgos. Poder acceder a los datos en cualquier momento, independientemente de dónde estén localizados, debe estar garantizado para el cliente.
  • Protección de la información: Porque se comparten recursos pero esto no puedo ir en menoscabo de la confidencialidad de los datos del cliente, que deberá estar garantizada en todo momento.
  • Recuperación: Desconocer la localización de la información no puede implicar jamás que no existan las medidas necesarias de seguridad y replicación para garantizar su recuperación en caso de desastre o pérdida de los mismos.
  • Colaboración con la Justicia: Acatamiento de las leyes de protección y seguridad de la información, independientemente de que ésta varíe según las normas propias del país donde se localicen los datos y aplicaciones del usuario.
  • Una relación ‘para toda la vida’: La sostenibilidad del proveedor tiene que estar garantizada. Fusiones, quiebras, cualquier cambio en su negocio no puede dejar ‘indefenso’ al cliente y, por ello, se establecerá un compromiso de continuidad a largo plazo en la relación en los propios términos del contrato.


Ahora, estas son desventajas que poco a poco los proveedores de servicios de Cloud podrán ir superando a medida que la tecnología avanza.  Sin embargo, existen otras preocupaciones que han generado controversia (y lo seguirán haciendo), por ejemplo el hecho de que como usuarios estaremos perdiendo el control sobre el software y sobre los datos.  Alguna de estas preocupaciones son:


  • El discurso sobre la “escalabilidad ilimitada” con “disponibilidad inmediata” no es tal. Todos los recursos son FINITOS.  Al llegar a una cierta necesidad de rendimiento puede ser necesario cambiar de proveedor y este proceso no es tan sencillo y rapido como algunos intentan vender.
  • Quien nos asegura que realmente ningún administrador en el proveedor de servicios de Cloud no esté leyendo nuestros correos, o revisando nuestros archivos, muchos de ellos confidenciales?  Esto ocurre con frecuencia en infraestructuras tradicionales, y en una Cloud Pública este riesgo aumenta exponencialmente.
  • Como confiar en un proveedor de servicios de Cloud, cuando grandes corporaciones como Google o Microsoft han sufrido de perdidas de datos.  Si compañias de este calibre tienen fallas asi, aun cuando no son frecuentes, como confiar en proveedores más pequeños?  Ni hablar de nuestra realidad tercermundista, donde es preocupante la frecuencia con que uno se encuentra con clientes que no tienen respaldada su información critica.  Los proveedores de servicios de Cloud NO están ajenos a esta realidad.
  • Como asegurarnos de que no tengamos que depender del proveedor de Cloud de por vida?  Esto considerando además los costos que puede llegar a tener la portabilidad, y aun peor si consideramos aspectos de compatibilidad entre un proveedor de servicios y otro.  Que seguridad tengo de que si en un par de años me quiero cambiar de proveedor, pueda hacerlo sin trabas administrativas y/o tecnicas?

Según Richard Stallman (Fundador de Free Software Foundation), los programas basados en Web como los servicios de Google (Gmail, Google Apps, etc.) son simplemente una trampa, y forzarán a las personas a comprar sistemas cerrados y propietarios, que irán aumentando sus precios en el tiempo.  
Esto es una opinión un poco extrema, pero refleja la preocupación que algunos tienen respecto al avance del Cloud Computing en las compañias.

En algunas consultas que se han hecho a los ejecutivos de las compañias, éstos a pesar de reconocer las ventajas del Cloud Computing y ser conscientes de ellas, declaran dos claros frenos que evitan todavía su adopción

  • Las amenazas de seguridad 
  • La pérdida del control de datos y sistemas.
Estas preocupaciones hacen que algunos aun prefieran confiar en sus sistemas internos existentes antes de migrar los servicios a la nube.



Bien, ya tenemos claras las desventajas y/o contraindicaciones de migrar nuestros servicios a una infraestructura de Cloud Pública.  Ahora, cual es nuestra alternativa?

Ante todo tenemos que tener en consideración que el Cloud Computing no nos obliga migrar a la nube pública todos nuestros servicios a la vez.  Una alternativa muy razonable, y que probablemente será la tendencia en la mayoria de las compañias, es combinar Cloud Privada y Cloud Pública en una Cloud Hibrida, donde se evalua las necesidades de cada uno de los servicios de la compañia, y si estos pueden ser o no llevados a una nube pública.

Todos tenemos claro los beneficios y ventajas que nos trae el Cloud Computing, pero debemos ser conscientes de que no todo lo que brilla es oro y es importante conocer ambos lados de la moneda antes de decidir si llevar o no nuestros servicios a la nube.  Esto es aún más critico para quienes trabajamos como consultores, donde debemos asesorar a nuestros clientes en sus dudas y preocupaciones respecto al Cloud Computing.

Espero les haya sido de utilidad y les sea interesante.

lunes, 16 de enero de 2012

Que es el Cloud Computing y cuales son sus ventajas?


Hola a todos, en esta ocasión hablaremos un poco acerca de qué es el Cloud Computing y cómo podemos sacar provecho de las ventajas que nos ofrece.

Que es el Cloud Computing?

En terminos simples, el Cloud Computing es un nuevo paradigma que nos permite ofrecer TI como Servicio.  Con Cloud Computing, todo lo que se encuentra en el Datacenter de una compañía es ofrecido como un servicio.

Cloud Computing permite ofrecer de manera conveniente y a demanda, recursos y servicios altamente disponibles tanto desde la red privada como la red pública.  Permite a los usuarios acceder a un catálogo estándar de servicios, respondiendo a las necesidades del negocio de forma flexible y permitiendo adaptarse a las demandas de los usuarios en el tiempo.

Su principal característica es el uso de recursos compartidos y la independencia de la infraestructura, lo cual permite al usuario disponer siempre de los mismos servicios independientemente donde este se encuentre ubicado.

Las características de Cloud Computing son:
  • Servicio a demanda
  • Pool de recursos independiente de la ubicación
  • Elasticidad y flexibilidad
  • Servicio medible



El Cloud Computing aporta una serie de ventajas al negocio, permitiéndole contar con:
  • Una infraestructura dinámica
  • Un alto grado de automatización
  • Una gran movilidad de recursos
  • Una elevada capacidad de adaptación a la demanda variable.
  • Facilidad para facturación de los servicios en función del consumo.


Tipos de Cloud



Cuando hablamos de Cloud Computing, debemos reconocer los diferentes tipos de Cloud que existen:

Cloud Privada:  Infraestructura on-demand implementada y administrada exclusivamente por la organización, que controla que servicios ofrecer .  Una Cloud Privada es una la mejor opción para las compañías que necesitan una alta protección de datos y asegurar el acceso continuo a los servicios sin la dependencia del acceso a Internet. 

Cloud Pública: Infraestructura on-demand implementada de manera que puede ser accedida de manera pública y desde internet.     
  • Generalmente ofrecida por empresas de comunicación y datacenter.
  • Servicios accedidos de manera estándar desde internet.


Muchos clientes diferentes pueden estar utilizando los mismos servidores, sistemas de almacenamiento, infraestructura de red, etc., sin que los usuarios finales tengan conciencia de que están compartiendo la infraestructura con otros clientes.

Cloud Hibrida: En una Cloud Hibrida se combinan los modelos de nubes públicas y privadas, donde el cliente es propietario de una parte de la infraestructura, mientras comparte otra.  Este modelo de Cloud es el que en teoría sería el más atractivo para las organizaciones y el que más se desarrollara con el tiempo.  Una Cloud hibrida trabaja bajo el concepto de federación y portabilidad.


Capas de Cloud Computing

Así como existen distintos tipos de Cloud, una Cloud puede estar a su vez subdividida en las siguientes capas

Software como servicio (SaaS).  Es la capa más alta del Cloud Computing.  Se ofrece directamente el software como servicio on-demand y en modalidad multitenance (una sola instancia del software que corre en la infraestructura y sirve a múltiples organizaciones de clientes), sin tener que preocuparnos de la plataforma donde se encuentra desarrollado, o la infraestructura desde donde el Software se ejecuta. Ejemplo, Google docs, Salesforce.com, Microsoft Office 365

Plataforma como servicio (PaaS). Es la segunda capa del Cloud Computing, donde se ofrece directamente un sistema operativo y un entorno donde desarrollar un servicio.  Cuando se habla de PaaS se refiere a una plataforma  que proporciona un conjunto de facilidades y herramientas para soportar un ciclo completo de desarrollo de un determinado software, incluyendo el hosting del producto resultante. Entre esas herramientas están IDEs, bases de datos, servidores de aplicaciones, gestores de fuentes, integración continua, software de trabajo colaborativo, etc.  Ejemplo, Microsoft Azure, Google App Engine, VMware Cloud Foundry.

Infraestructura como servicio (IaaS). Es la capa inferior del Cloud Computing, donde básicamente se ofrecen los recursos de almacenamiento CPU, memoria y red para que podamos instalar el sistema operativo de nuestra elección, y desarrollemos en el Framework que deseemos.  Ejemplo, vCloud Express de VMware, Amazon Web Services



Ventajas de la infraestructura de Cloud Computing

Desde el punto de vista económico

  • Reducción de Costos (CAPEX/OPEX). Esto considerando que los proveedores de Cloud Computing utilizan infraestructuras altamente eficientes y con altos radios de utilización, reduciendo el costo total de operación y mantención de la infraestructura, repartiendo además los costos entre todos los clientes a los que se presta el servicio.  Esto aplica también en nubes privadas, utilizando las funcionalidades de facturación interna o Chargeback. Se reducen los costos en la inversión inicial de la infraestructura y los costos de operación.
  • Infraestructura a medida. Facilita las labores de dimensionamiento de la infraestructura en un proyecto determinado, eliminando la complejidad de calcular las proyecciones de crecimiento del negocio, permitiendo un escalamiento de la plataforma on-demand, según las necesidades del negocio, y reduciendo el riesgo de sobredimensionar una infraestructura que después no será utilizada a plenitud.
  • Mayor eficiencia. Aumenta la eficiencia en el uso de utilizando sistemas que se encarguen de monitorear el uso de los recursos y administrarlos de manera eficiente para reducir los costos  de manera automática y eficiente, a través de llamados de petición o liberación de recursos al proveedor del servicio. 
  • Costo basado en uso. Donde cada cliente paga por lo que está realmente utilizando, y no por toda una infraestructura que se podría contar en un Datacenter, y que frecuentemente es subtilizada.  
  • Calidad de Servicio. Permite contar con niveles de servicio (SLA) con mayores tiempos de disponibilidad.  Es posible contar con diferentes niveles de servicio dependiendo del cliente y su negocio.

Desde el punto de vista Técnico

  • Automatización. Permite automatizar la gestión de la infraestructura mediante scripts u otras soluciones, permitiendo desplegar nuevas aplicaciones, o gestionar recursos de manera automática apalancando las APIs incluidas en la infraestructura.
  • Escalabilidad. Ya sea en forma automática o en forma manual, es posible escalar los recursos que una aplicación necesita en forma dinámica y on-demand.  Del mismo modo es posible realizar escalamiento de recursos de forma proactiva para atender aumentos de la demanda a través de predicciones basadas en patrones históricos de uso de los servicios.
  • Movilidad. Existe una independencia del dispositivo y la ubicación, lo que permite que los usuarios puedan acceder a los sistemas usando un navegador de Internet independiente de su ubicación geográfica y del sistema operativo o computador.
  • Disponibilidad. La infraestructura y arquitectura de un Data Center diseñado como una Cloud, esta especialmente diseñada con alta redundancia para asegurar la Continuidad Operacional y la Continuidad del Negocio.  Además, es posible usar la amplia distribución geográfica de la infraestructura de un proveedor de Cloud Computing para la replicación de ambientes en varias locaciones alrededor del mundo en minutos.

Espero les haya servido para entender un poco más sobre la Cloud.  Si quiere más información pueden revisar los siguientes links:

domingo, 8 de enero de 2012

Impacto de la virtualización en la estrategia de Respaldo y Disaster Recovery



Hasta hace no muchos años, antes de que la virtualización entrara fuertemente en el Datacenter de las compañias, respaldar la información critica podia llegar a ser un desafio.  Aun más, el proceso de restauración podia llegar a ser una pesadilla en muchos casos, y muchas veces este proceso no podia ser completado exitosamente.

En este punto debemos separar además el termino "Restauración" de "Recuperación".  Si bien en muchos casos podemos llegar a restaurar los archivos requeridos, hay mucho camino aun por recorrer para poder llevar a cabo una Recuperación exitosa del servicio o aplicación requerida

En un ambiente fisico tradicional, los fabricantes de soluciones de respaldo tradicionales muchas veces se conformaban con el hecho de extraer los datos desde los respaldos y llevarlos a un almacenamiento accesible para su uso, lo cual claramente no es suficiente si consideramos que el proceso no estara completo si la aplicación que requiere el dato restaurado no ha podido volver a estar operativa.

Por otro lado, las soluciones de respaldo estaban pensadas principalmente para poder respaldar y restaurar datos.  Con el uso de agentes especializados, los fabricantes sumaron soporte para el respaldo y restauración de aplicaciones y servicios como Bases de Datos, Servidores de correo, etc.  Estos agentes, si bien solucionaban esa necesidad puntual, aumentaban drasticamente el costo de la solución de respaldo, asi como también su complejidad.

Aun más, en un ambiente fisico existe un desafio aun mayor...  ¿Qué sucede si el servidor ha fallado completamente y es necesario recuperarlo desde cero?

Una alternativa es reinstalar el sistema operativo y las aplicaciones/servicios, con la correspondiente configuración, para luego restaurar los datos almacenados en los respaldos...  Pero esto toma demasiado tiempo no?  De hecho una solución asi en muchos casos es inaceptable para servidores de misión critica, debido a que podria tardar horas en el mejor de los casos.

Para enfrentar este desafió, la mayoria de las soluciones de respaldo cuentan con capacidades de restauración "Bare Metal", que permiten una restauración desde cero, pero este tipo de soluciones suelen ser poco confiables, debido a que dependen mucho del hardware de reemplazo, donde un pequeño cambio puede provocar que las restauraciones fallen.

Y el desafio final en ambientes fisicos, es que el proceso de recuperación rara vez involucra a un unico servidor.  Por ejemplo, ante la falla del Storage que soporta la aplicación (por ejemplo en una configuración en Clúster), o cuando el Datacenter completo sufre una caida, el proceso de restauración involucrará varias capas (tiers) de servidores, lo cual muchas veces debe ser realizado en un orden especifico para asegurar que el proceso sea exitoso.

Todos estos desafios que enfrenta una infraestructura fisica tradicional, hacen que poder contar con una estrategia de Recuperación ante Desastres y de Continuidad de Negocios sea extremadamente dificil.  Ni hablar de procedimientos para probar los respaldos, proceso que podria durar por siempre....

La llegada de la virtualización.
Con la aparición de la virtualización y su explosiva adopción, especialmente con VMware, todos los paradigmas de gestión de un Datacenter sufieron un cambio profundo, especialmente los procedimientos relacionados a Disaster Recovery y Bussines Continuity.

Las antiguas soluciones de respaldo, asi como los procedimientos de recuperación ante desastres, si bien aun pueden ser utilizados en los ambientes virtualizados, estan lejos de ser eficientes y debieran ser reemplazados por soluciones y procedimientos acorde, que puedan aprovechar todas los beneficios que la virtualización nos entrega.

Si bien la virtualización nos ayuda a enfrentar de mejor manera los desafios antes mencionados, esta es solo parte de la solución.  La otra parte son las soluciones de Respaldo y Disaster Recovery que nos ofrecen los principales actores de la virtualización (VMware, Microsoft y Citrix), asi como las soluciones especializadas de terceros (Veeam, Quest, Symantec, CA, etc.).

Con las soluciones de respaldo y Disaster Recovery diseñadas para ambientes virtuales, cada servidor (máquina virtual) puede ser protegido completamente en un unico proceso de respaldo, aprovechando uno de los pilares de la virtualización, que no es otro que la ENCAPSULACIÓN de la MV en un conjunto de archivos.

Luego de realizar un respaldo full, al comunicarse directamente con el hypervisor, las soluciones de respaldo pueden realizar respaldos parciales (incrementales) almacenando solo los cambios o bloques modificados de la MV respecto al ultimo respaldo.  Adicionalmente las soluciones de respaldo actuales utilizan metodos avanzados de compresión y deduplicación, lo que permite un uso más eficiente de los recursos de almacenamiento y del ancho de banda en la red de respaldos.

Para que los respaldos sean consistentes, las soluciones de respaldo para ambientes virtualizados están basadas principalmente en los Snapshots de las máquinas virtuales, lo cual permite mantener multiples puntos de recuperación o versiones de respaldos.

Ahora lo escencial... ¿En que mejoran los procesos de recuperación?
Con la virtualización y las soluciones de respaldo y Diaster Recovery pensadas para ambientes virtuales, es posible recuperar una máquina virtual completa desde un respaldo, sin preocuparse de los problemas de compatibilidad de hardware que presentaban las soluciones Bare Metal tradicionales, porque como deben recordar, las máquinas virtuales son 100% independientes del hardware físico que las hospedan!

Esto nos permite restaurar una  o más máquinas virtuales en otro host o incluso en otro Site si es necesario, siendo de gran ayuda al momento de aplicar los procedimientos de Disaster Recovery

Mejor aun, si la situación asi lo requiere, y dependiendo de la solución de respaldo utilizada, es posible recuperar archivos especificos desde el respaldo de la MV, no siendo necesaria la restauración de la MV completa.  Del mismo modo, y dependiendo de la "inteligencia" de la solución de respaldo elegida, es posible realizar restauraciones granulares a nivel de aplicación, como puede ser un correo en un buzon Exchange, o un registro en una BD SQL/Oracle.

Algunos productos de Respaldo y Disaster Recovery tienen la habilitad de realizar una recuperación "in-place", que permite acelerar el proceso de recuperación montando la máquina virtual respaldada desde el mismo repositorio de respaldos, lo cual nos permite tener nuestros servicios operativos en forma casi instantanea en algunos casos, aun cuando tengan una performance degradada.  Una vez el servicio se encuentra restaurado, el administrador TI puede utilizar funcionalidades como Storage vMotion de vSphere para mover "en caliente" la MV al dispositivo de almacenamiento principal, sin ninguna interrupción, y normalizando la performance de dicho servicio.

Si requerimos soluciones de Disaster Recovery y Bussines Continuity, como el uso de Sites de Contingencia, apalancando la Virtualización y las tecnologias de respaldo modernas es posible pensar en sitios replicados y procedimientos de Failover y Failback de maneras que serían mucho más complejas de implementar en los ambientes fisicos tradicionales.

Con soluciones como VMware Site Recovery Manager, Veeam Backup and Replication y Quest vRanger, es posible contar con sitios replicados en ubicaciones remotas, donde ya no es requisito fundamental la compatibilidad entre los dispositivos de almacenamiento (SAN) existentes en el sitio principal y en el de contingencia.
De hecho, si asi lo requieren, el sitio de contingencia podria incluso funcionar sin un almacenamiento centralizado (SAN o NAS), utilizando nada más que almacenamiento local en cada host.  Claramente no es la situación ideal, pero cuando el presupuesto es escaso, es una solución bastante valida.

Un ultimo punto, pero no menos importante, es la posibilidad de probar los respaldos para asegurarnos que estos sean recuperables en caso que lo necesitemos.  Con la virtualización y las soluciones de respaldo y Disaster Recovery, es más sencillo generar ambientes aislados o sandbox virtuales donde poder comprobar que los respaldos sean recuperables y funcionales, sin afectar a los servicios productivos, y en tiempos mucho más acotados que en ambientes físicos tradicionales.

Como pueden ver, al virtualizar un Datacenter se deben introducir cambios bastante profundos en la manera en que se gestiona la plataforma y en los procedimientos que llevan a cabo los administradores de TI en diversas situaciones, en especial en lo relacionado a la Recuperación ante Desastres y Continuidad de Negocios.

Espero que les haya resultado interesante y que les sea de utilidad.

martes, 3 de enero de 2012

VMware View 5: Persona Management



Hola a todos, hoy hablaremos sobre View 5, especificamente de la nueva funcionalidad "Persona Management".

Persona Management, disponible en la versión Premier de VMware View 5, permite preservar los perfiles de usuario y sincronizarlos dinamicamente con un Repositorio remoto de perfiles.  Expande la funcionalidad de Windows Roaming Profiles y mejora la performance de este, pudiendo ser una solución alternativa a Roaming Profiles.

El perfil de cada usuario es una colección de datos y configuraciónes utilizados por cada usuario cuando inicia una sesión en Windows. El perfil de cada usuario se almacena por defecto en el siguiente directorio:

  • Windows XP:  c:\documents and settings\%username%\ 
  • Windows 7: c:\users\%username%

El perfil de usuario incluye una variedad de información generada por el usuario, como por ejemplo:
  • Apariencia del escritorio, como por ejemplo el wallpaper, combinacion de colores, uso de Aero en Windows 7, etc.
  • Parametros de configuración de aplicaciones, como preferencias de usuario para su uso, barras de herramientas, configuración de correo en Microsoft Outlook, etc.


Persona Management es una mejora considerable para preservar el perfil de los usuarios, especialmente en Pools Flotantes de escritorios virtuales.  En versiones anteriores, esto solo era posible utilizando escritorios dedicados para cada usuario (Ejemplo, Pool de Composer con Discos Persistentes).

Desafios en la gestión de perfiles
En un escritorio fisico tradicional, todos los cambios que realiza un usuario en su perfil son almacenados en el disco local.

En una infraestructura de escritorios virtuales, existen dos tipos de escritorios:


  • Dedicados (o persistentes), donde a cada usuario se le asigna un escritorio, el cual seguirá usando cada vez que inicie sesión en VMware View.
    Utilizando escritorios dedicados, los perfiles de usuario pueden ser almacenados en un disco de datos persistente, no obstante esta no es una solución optima para escenarios de Disaster Recovery y Business Continuity.  Adicionalmente, los discos persistentes no se integran bien con las soluciones de respaldo corporativas.
  • Flotantes (No persistentes), donde el usuario obtiene un escritorio aleatoriamente cada vez que inicia sesión.  En este caso, en versiones anteriores, el usuario pierde todos los datos de perfil al cerrar sesión.  Cada vez que el usuario inicia sesión en un pool de escritorios flotantes, el usuario experimenta el estar iniciando sesión por primera vez en Windows, incluyendo la apariencia del escritorio y todas las preferencias y configuraciones de las aplicaciones.


VMware View 5 incluye Persona Management que permite preservar el perfil de los usuarios en un repositorio compartido en la red, permitiendo recuperarlo cada vez que el usuario inicia sesión, sin importar si se encuentra en un escritorio dedicado o flotante.


Como funciona Persona Management?

View Persona Management incluye politicas de grupo que se pueden importar facilmente en Active Directory, y que permiten habilitar View Persona para los usuarios de View, asi como tambien configurar otros parámetros, como la ubicación del repositorio de perfiles.  Algo a destacar es que View Persona Management no realiza cambios en las cuentas de usuario de Active Directory para poder gestionar los perfiles.

Adicionalmente, al instalar el Agente View en los escritorios, se debe instalar el componente para View Persona incluido en el Agente de View 5.

En el caso de utilizar aplicaciones virtualizadas con ThinApp, la data del sandbox de ThinApp puede tambien ser almacenada en el perfil del usuario que está almacenado en el repositorio central de Persona Management, sin impactar significativamente en los tiempos de inicio de sesión.

Los perfiles de usuario son sincronizados dinamicamente con el repositorio remoto de perfiles. View Persona no requiere el uso de Windows Roaming Profiles, pero si este ultimo ya se encuentra implementado, es posible utilizar el repositorio existente como repositorio de perfiles de View Persona.

Al usar Persona Management se obtienen mejoras importantes en el tiempo que toma el escritorio para abrir y cerrar sesión.

  • Durante el inicio de sesión, View descarga solo los archivos que Windows necesita, como los archivos de registro del usuario.  Otros archivos son copiados al escritorio cuando el usuario o la aplicación los abre.  En resumen, el la información del perfil es descargada por View Persona a medida que el usuario lo necesita.
  • View copia periodicamente los cambios recientes hechos en el perfil local, al repositorio remoto.  Por defecto el intervalo de sincronizacion es de 10 minutos, el cual puede ser personalizado.
  • Durante el cierre de sesión, solo los archivos que fueron actualizados desde la ultima replicación son copiados en el repositorio remoto de perfiles.


En conclusión, View Persona Management permite que los usuarios tengan una experiencia consistente desde un inicio de sesión a otro, sin importar si se encuentran en un pool flotante o dedicado.