Upgrade a vCenter Server 5.0

Una serie de articulos detallando el proceso de Upgrade a vCenter Server 5.0

Upgrade a ESXi 5.0

Una serie de articulos detallando el proceso de Upgrade a ESXi 5.0

Instalación de ESXi 5.0

Una serie de articulos detallando el proceso de Instalación de ESXi 5.0

Configuración iSCSI en vSphere 5.0

Una serie de articulos dedicados a la configuración de iSCSI en vSphere 5.0

Reconocido como vExpert 2011

Reconocido como vExpert 2011

VMware View 4.5

Una serie de articulos dedicados a View 4.5 y todas sus nuevas funcionalidades.

VMware View Transfer Server 4.5

Una serie de articulos dedicados a View Transfer Server y sus caracteristicas.

VMware View Composer 2.5

Una serie de articulos dedicados a View Composer y sus caracteristicas.

Cluster MSCS Across Boxes en vSphere 4.1

Serie de articulos detallando el proceso de creación y configuración de un cluster MSCS en configuración Across Boxes en vSphere 4.1

miércoles, 14 de diciembre de 2011

vSphere 5: Host Power Management (HPM)

Hola a todos,

Una de las nuevas features incluidas en vSphere 5, y de la que poco se ha hablado, es vSphere Host Power Management o simplemente HPM.

HPM es una tecnica que permite ahorrar energia poniendo ciertas partes de un servidor o dispositivo en un estado de energia reducido, cuando el servidor o dispositivo se encuentra inactivo o no necesita funcionar a plena capacidad.

HPM no debe confundirse con DPM (Distributed Power Management), el cual distribuye MVs entre hosts fisicos en un cluster, intentando liberar uno o más hosts para apagarlos completamente.  HPM ahorra energia manteniendo los hosts encendidos en todo momento.  Ambas features pueden ser utilizadas simultaneamente permitiendo un ahorro de energía mayor.


HPM administra la energia utilizando los estados de performance y energia de Advanced Configuration and Power Interface (ACPI).  Con el lanzamiento de vSphere 5, la politica de administración de energia por defecto está basada en DVFS (Dynamic Voltage and Frequency Scaling).  Esta tecnologia utiliza los estados de performance del procesador y permite que parte de la energia sea ahorrada utilizando el procesador a una menor frecuencia y voltaje, mientras aun se deja suficiente tiempo de CPU disponible para mantener niveles de performace aceptables en la mayoria de los ambientes.

Host Power Management en ESXi 5

vSphere HPM en ESXi 5 se encuentra diseñado para reducir el consumo de energia en los hosts ESXi.


ESXi 5 incluye cuatro diferentes politicas de energia que están basadas en el uso de los estados de performance ACPI (P-States) del procesador, y en los estados de energia ACPI (C-States) del procesador.

Los P-States pueden ser utilizados para ahorrar energia cuando la carga de trabajo en ejecución sobre el host no requiere una capacidad completa de CPU.  Los C-States pueden ahorrar energia solo cuando la CPU tiene una cantidad significativa de tiempo disponible, por ejemplo, cuando la CPU está esperando que una operación de I/O se complete.

Politicas de Energia HPM en ESXi5
ESXi cuenta con las siguientes politicas de energia:



  • High Performance: Esta politica maximiza la performance, y no utiliza ninguna funcionalidad de gestión de energia.  Esta es la politica por defecto para ESX/ESXi 4.x.
  • Balanced: Esta politica está diseñada para reducir el consumo de energia del host, mientras se tiene poco o ningún impacto en la performance.  Esta es la politica por defecto para ESXi 5
  • Low Power: Esta politica está diseñada para reducir en forma más agresiva el consumo de energia del host, al riesgo de reducir la performance.
  • Custom: Esta politica parte con la misma configuración que la politica "Balanced", pero permite que parametros individuales sean modificados.  Si el hardware del host no permite al sistema operativo gestionar la energia, el unico parametro disponible es "Not Supported".


Para cambiar la politica a utilizar, deben ir a la sección "Configuration" del Host, y luego seleccionar Power Management en la sección "Hardware".







Espero que les haya resultado interesante.  Si quieren saber más de HMP, incluyendo su funcionamiento y best practices, pueden revisar el siguiente Whitepaper:


Regalo de navidad de Veeam! Licencias NFR de Veeam Backup and Replication 6


Como un regalo especial de fin de año, Veeam nuevamente esta entregando licencias gratuitas, esta vez del recientemente lanzado Veeam Backup and Replication v6.

Estas licencias están disponibles para VMware vExperts, VMware Certified Professionals y VMware Certified Instructors.  Del mismo modo, y considerando que ahora se cuenta con soporte para Hyper-V, estas licencias NFR pueden ser obtenidas tambien por Microsoft Certified Professionals y Microsoft MVPs.


Solo se requiere registrarse para recibir las licencias Veeam para propositos de Evaluación, Demostración y Entrenamiento.

Para quienes estén interesados este es el link:
http://www.veeam.com/news/holiday-gift-from-veeam-free-veeam-backup-and-replication-v6-licenses-for-your-lab155.html

vSphere 5: What's New - Performance


Con el lanzamiento de vSphere 5 se obtienen una serie de mejoras en la performance de nuestra plataforma VMware, las cuales detallaremos a continuación.
Las mejoras de performance se dividen en 5 pilares, los cuales detallaremos brevemente:
  • Mejoras a nivel de vCenter Server
  • Mejoras a nivel de capacidad de computo
  • Mejoras a nivel de almacenamiento
  • Mejoras a nivel de networking
  • Mejoras a nivel de vMotion

Mejoras a nivel de vCenter Server
vSphere 5 incluye mejoras en la escalabilidad que permite, por ejemplo, un mayor número de máquinas virtuales por clúster.  Aún con esta mayor escalabilidad, vSphere 5 incluye una serie de mejoras en la performance relacionadas a las operaciones de administración en vCenter Server, así como también en las funcionalidades relacionadas  con High Availability (HA):
  • Hasta un 120% de mejora en el throughput (operaciones/minuto) de las operaciones de administración en vCenter.  Por ejemplo, en el encendido/apagado/migración/registro de máquinas virtuales.
  • Una mejora del 25% al 75% en la latencia de las operaciones de administración, dependiendo del tipo de operación.
  • La configuración de un cluster HA puede ser realizada hasta 9 veces más rápido en vSphere 5, dependiendo del tamaño del cluster.
  • En vSphere 5 se puede realizar el failover de hasta un 60% más de máquinas virtuales, en el mismo periodo, respecto a versiones anteriores
  • El tiempo mínimo de recuperación, desde la falla hasta que la primera máquina virtual es reiniciada, ha sido mejorado en un 44.4%
  • El tiempo promedio para el failover de máquinas virtuales ha sido mejorado en un 14%.
  • El Slot size por defecto para la CPU ahora es de solo 32Mhz, permitiendo un mayor radio de consolidación en comparación con versiones anteriores.
Mejoras a nivel de capacidad de computo
  • vSphere 5 soporta hasta 32 vCPU y hasta 1TB de vMEM por máquina virtual, lo cual permite que aplicaciones Tier 1  y de misión critica alcancen una mayor performance.
  • Mejoras en el scheduler de la CPU en arquitecturas Intel SMT, permitiendo una mejora del 10% al 30% en la performance de las aplicaciones, dependiendo de la carga de trabajo.
  • En vSphere 5 se incluye Virtual NUMA o vNUMA, que expone la topología NUMA al sistema operativo de las máquinas virtuales, permitiendo que el sistema operativo y aplicaciones hagan un mejor uso de la arquitectura NUMA del host.  Se requiere Virtual Hardware versión 8.
  • vSphere 5 permite a los usuarios configurar un caché para Swap en un disco de estado sólido o SSD.  De esta manera, cuando Transparent Page Sharing, Ballooning y la Compresión de memoria no han sido suficientes para obtener los recursos de memoria requeridos, el proceso de swapping se realizará en ésta cache en vez de utilizar un archivo normal de swap en disco.  Esto permite una mejora importante en la performance reduciendo la latencia en escenarios de escasez de memoria.
Mejoras a nivel de almacenamiento
  • vSphere 5 Storage I/O control ahora soporta NFS y “shares” basados en NAS.  Esto permite regular dinámicamente el acceso de múltiples máquinas virtuales a recursos de I/O compartidos en un clúster, basados en los shares asignados a las máquinas virtuales.
Mejoras a nivel de Networking
  • vSphere 5 incluye mejoras en NetIOC, donde agrega funcionalidades de QoS (802.1p) y permite la creación de Resource Pools para limitación de anchos de banda.
  • vSphere 5 incluye splitRxMode, una nueva funcionalidad para dividir el costo de la replicacion de paquetes para multicast entre varias CPUs físicas, permitiendo que vSphere 5 sea una plataforma altamente escalable y eficiente para receptores de multicast.  En versiones previas, la replicación de paquetes para multicast es hecha usando un único contexto, y en escenarios con una alta densidad de máquinas virtuales por host, esto puede provocar cuellos de botella y causar perdida de paquetes.  SplitRxMode puede ser habilitado en una virtual NIC VMXNET3, y permite dividir el costo del procesamiento de paquetes recibidos en multiples contextos, mejorando  significativamente la performance de multicast.
Mejoras a nivel de vMotion
  • vSphere 5 permite que vMotion sature en forma efectiva el ancho de banda de un adaptador de red 10GbE durante una migración, reduciendo los tiempos de transferencia en una operación de vMotion.
  • Se permite el uso de multiples adaptadores de red para las operaciones de vMotion, donde el VMkernel balanceara la carga del trafico de vMotion, en forma transparente, sobre todas las vmknics con vMotion habilitado, tratando de saturar todas las conexiones para distribuir el trafico de vMotion, incluso en operaciones unicas de vMotion.
  • Se incluye una nueva funcionalidad de “Metro vMotion” que provee de una mejor performance sobre redes con alta latencia y aumenta los limites de latencia para redes de vMotion de 5ms a 10ms.
  • Se incluye soporte de Live Migration para Storage (Storage vMotion) con el uso de I/O Mirroring.  Esto permite una mayor movilidad de máquinas virtuales, mantenimiento con zero downtime, y balanceo de carga de almacenamiento manual y automatico.
Conclusión
Como podemos ver, vSphere 5 incluye un numero importante de mejoras a nivel de performance, lo cual nos permite virtualizar aplicaciones de cualquier envergadura, tanto en pequeños ambientes, como en grandes implementaciónes con aplicaciones de mision critica y Tier-1.
Para mayor información, pueden revisar el siguiente White Paper de VMware con todo el detalle de las novedades de vSphere 5, relacionados con la performance:

lunes, 12 de diciembre de 2011

Nace vZion Consultores!


Hola a todos!  Les quería comentar acerca de un nuevo desafió personal en el que me he embarcado desde hace algunos días, que es la formación de una compañía dedicada a la Virtualización y Cloud Computing en Chile.  

Finalmente esta idea sale a la luz en la forma de vZion Consultores, de la cual soy co-fundador, donde ya somos Partners tanto de VMware como de Veeam Software, y estamos trabajando ya en nuevas alianzas y partnerships con importantes actores en la industria de la virtualización.

Desde ya les comento que este Blog seguirá activo y actualizado periódicamente, y agradezco enormemente las visitas y el apoyo que aquí he conseguido.

Si quieren saber más de vZion Consultores pueden visitarnos en nuestro sitio web (www.vzion.net), asi como también en las redes sociales como Twitter, Facebook y Linkedin.

Gracias a todos!

miércoles, 30 de noviembre de 2011

Veeam Backup and Replication 6 - Finalmente disponible


Finalmente, a partir de ayer se encuentra disponible Veeam Backup & Replication v6, el cual es posible descargar en modo de evaluación para que puedan probar todas sus nuevas funcionalidades.

En un post anterior detallé las novedades de esta nueva versión de esta premiada solución de Veeam.

Entre las novedades podemos indicar:

  • Una nueva arquitectura distribuida
  • Soporte para Hyper-V
  • Mejoras importantes en la funcionalidad de Replicación con Failback incluido.
  • Nueva funcionalidad Quick Migration
Una descripción más detallada la pueden encontrar en el sitio de Veeam y en el articulo de What's New publicado anteriormente en este Blog.

miércoles, 23 de noviembre de 2011

Acceso directo con credenciales en vClient

En vClient existen algunos parámetros que nos podrían facilitar el acceso a 1 o varios servidores ESXi o vCenter's. Si estás aburrido de ingresar las credenciales cada vez que te conectar a tu plataforma puedes crear un acceso directo con las credenciales listas, de tal manera que al hacer dos clic conecte al servidor predefinido con las credenciales agregadas previamente. ¿Cómo? Los parámetros que VMware provee para esto son:

-u (username)
-s (servername o IP)
-p (password)

de tal manera que podemos crear un acceso directo con el siguiente path en el "Destino":

"C:\Program Files\VMware\Infrastructure\Virtual Infrastructure Client\Launcher\VpxClient.exe" -u root -s 192.168.0.150 -p Contraseña2010




Hay que ser claro si en indicar que la contraseña no queda encriptada, cualquier usuario que quiera editar el acceso directo podría encontrarse con las credenciales de acceso a la plataforma por lo que se recomienda ser cuidadoso en el uso de estos parámetros.

Acá tambien podemos hacer uso del parámetro -passthroughAuth para acceder con las credenciales de sesión de windows por ejemplo:

"C:\Program Files\VMware\Infrastructure\Virtual Infrastructure Client\Launcher\VpxClient.exe" -passthroughAuth -s vcenter.testing.local

jueves, 17 de noviembre de 2011

VMware View 5: Implementando escritorios virtuales


Hola a todos!
En el ultimo VMworld efectuado en Las Vegas, se realizó el lanzamiento oficial de VMware View 5.  A continuación hablaremos un poco más de esta nueva versión y del proceso de instalación y configuración.

Anteriormente publiqué un post con las mejoras de View 5 respecto a sus antecesores, donde destacan mejoras en el protocolo PCoIP, uso de aplicaciones en 3D, y View Persona Management, que permite el uso y administración de perfiles moviles sobre escritorios virtuales.  Sobre este ultimo punto entraremos más en detalle en esta serie de articulos.

Introducción
VMware View es la solución de virtualización de escritorios de VMware, que nos permite simplificar la gestión de los escritorios, mientras se aumenta la seguridad y control sobre la plataforma.

VMware View permite entregar una experiencia personalizada y de calidad a los usuarios finales, permitiendo una mayor disponibilidad y agilidad en los servicios de escritorio, respecto a los PCs tradicionales, reduciendo ademas el TCO en hasta un 50%.

Experiencia de usuario final
A diferencia de los PCs tradicionales, los escritorios View no están atados a los computadores fisicos, sino que residen en una nube y los usuarios finales pueden acceder a sus escritorios virtuales cuando lo necesiten, y desde cualquier ubicación.  Gracias al protocolo PCoIP, VMware View entrega una experiencia de usuario final mas rica, flexible y adaptable, en diferentes condiciones de conectividad.

Control y gestión
VMware View permite aumentar el control sobre los escritorios, aplicaciones y datos, entregandolos y gestionandolos como servicios centralizados.
A traves de una unica consola administrativa, se puede contar con visibilidad sobre todos los servicios de escritorio, mientras se facilitan las tareas al area TI de provisionar escritorios, asi como la gestión de parches y actualizaciones.

Características de VMware View
Entre las caracteristicas de VMware View podemos nombrar:

  • Uso de múltiples monitores
  • Imprimir desde un escritorio virtual a cualquier impresora local o en red que se encuentre definida en el dispositivo cliente.
  • Acceso a dispositivos USB y otros perifericos que se encuentren conectado en el dispositivo Thin Client.
  • Uso de VMware HA para entregar alta disponibilidad a los escritorios virtuales.
  • Integración con Active Directory para administrar los escritorios virtuales y politicas
  • Uso de template o imagen maestra para crear y provisionar grupos de escritorios virtuales rapidamente (View Composer)
  • Administración de perfiles móviles utilizando View Persona Management
  • Acceso desde distintas ubicaciones, incluyendo conexiones a través de la WAN sin necesidad de VPN.


Componentes de VMware View


Los componentes de la arquitectura de VMware View los he detallado anteriormente al hablar de View 4.5, y en esta nueva versión los componentes son basicamente los mismos.

  • Dispositivos Cliente
  • View Connection Server
  • View Client
  • View Agent
  • View Administrator
  • View Composer
  • View Transfer Server
  • View Securitu Server


Protocolos de conexión remota


VMware View con PCoIP
PCoIP provee una experiencia optimizada para la implementación de un ambiente de escritorio completo, incluyendo aplicaciones, imagenes, audio y video para un amplio rango de usuarios en la LAN o a traves de la WAN. PCoIP puede compensar un aumento en la latencia o en la reducción del ancho de banda para asegurar que los usuarios finales pueden permanecer productivos sin importar de las conficiones de red.

Microsoft RDP
Microsoft Remote Desktop Connection (RDC) utiliza RDP para transmitir datos. RDP es un protocolo multicanal que permite a los usuarios conectarse remotamente a un computador.

Software HP RGS
En View 5.0 el soporte para HP RGS ha sido removido


Requisitos
View Connection Server
Para la instalación de View Connection Server se debe contar con un servidor de 32 o 64 bits dedicado, ya sea fisico o virtual que cumpla los siguientes requerimientos (estos aplican también para las instancias de replica o servidores de seguridad):


  • Procesador Pentium IV o superior. Se recomienda un servidor con 4 CPUs.
  • Conexión a red 10/100Mbps. Se recomienda 1Gbps.
  • 2GB de memoria RAM o superior (4GB para Windows 2008). Se debe contar con al menos 10GB de RAM en implementaciones de 50 o más escritorios virtuales.
  • Windows Server 2003 R2 32-bits y 2008 R2 64-bits
  • VMware vSphere 4.0 U3 o superior
  • VMware vSphere 4.1 U1 o superior
  • VMware vSphere 5.0 o superior

Nota: No usar redes WAN para conectar instancias replicadas de View Connection Server

View Composer
View Composer 2.7 se instala solo sobre sistemas operativos de 64 bits. View Composer debe ser instalado en el mismo servidor (fisico o virtual) donde se encuentre instalado vCenter Server.


  • VMware vSphere 4.0 U3 o superior
  • VMware vSphere 4.1 U1 o superior
  • VMware vSphere 5.0 o superior
  • Windows Server 2008 R2 
  • Una instancia de SQL Server u Oracle para los datos de Composer. De ser posible utilizar el mismo servidor de base de datos utilizado por vCenter.




View Agent
A continuación un detalle de los sistemas operativos soportados para View Agent:

  • Windows 7 32 y 64 bits
  • Windows Vista SP1/SP2 32-bits
  • Windows XP SP3 32-bits
  • Windows Server 2008 Terminal Server 64-bits
  • Windows Server 2008 R2 Terminal Server 64-bits
  • Windows Server 2003 Terminal Server 32-bits
  • Windows Server 2003 R2 Terminal Server 32-bits
  • Nota: Si se utilizará Windows 7 como escritorio virtual, el host que lo hospede debe ser ESX 4.0 U2 o superior o ESXi 4.1 o superior.


View Client
A continuación un detalle de los sistemas operativos soportados para View Client:

  • Windows 7 32 y 64 bits
  • Windows Vista SP1/SP2 32-bits
  • Windows XP SP3 32-bits


Instalación y Configuración de VMware View

Habiendonos introducido a VMware View 5.0 y conociendo sus requerimientos, a continuación detallaremos el proceso de Instalación y Configuración de VMware View:


  • Preparación de Active Directory
  • Instalación de VMware View Connection Server 5.0
  • Instalación de VMware View Composer 2.7
  • Configuración Inicial
  • Creando y Optimizando los Escritorios Virtuales
  • Creación de un Pool Manual de escritorios virtuales.
  • Creación de un Pool automatico de escritorios virtuales.
  • View Persona Management


Para una documentación más detallada del proceso y que cubra todos los escenarios, pueden revisar la documentación oficial de VMware:

lunes, 14 de noviembre de 2011

vSphere: Qué es y cómo funciona Beacon Probing

Hola a todos!

En esta ocasión hablaremos sobre los mecanimos de detección de fallas en la red, en una plataforma VMware, especificamente de Beacon Probing.



Beacon Probing es un mecanismo de deteccion de fallas en la red que envia y escucha Sondas o paquetes Beacon (Beacon Probes) en todas las NICs configuradas en Team (NIC Teaming), y utiliza esta información junto con el estado del link para identificar fallas en algún enlace uplink.  Beacon Probing detecta fallas como desconexión de cables y fallas de energia de los switches fisicos contiguos, asi como tambien en los switches downstream (switches que no estan conectados directamente al host).

Como funciona Beacon Probing?

Periodicamene un host ESX/ESXi envia broadcast de paquetes beacon desde todos los uplinks en un team.  La idea es que el Switch fisico reenvie todos los paquees a los otros puertos en el mismo dominio broadcast.  Debido a lo anterior, se espera que los miembros de un Team vean los paquetes Beacon enviados por otros miembros del Team.  Si un uplink no recibe correctamente 3 paquetes beacon consecutivos, dicho uplink es marcado como fallido.  Esta falla puede encontrarse en el link al Switch fisico al que se conecta el host, o en un link downstream.



El uso de Beacon Probing es util en Teams con 3 o más uplinks.  Cuando hay solo 2 NICs en un team configurado con Beacon Probing y uno de ellos pierde conectividad, no queda claro cual NIC debe ser sacada de servicio, debido a que ninguna de ellas recibe los paquetes beacon generados por los uplinks del Team.

Usando al menos 3 NICs en un Team es posible detectar hasta N-2 fallas, donde N es el numero de NICs en el Team antes de alcanzar una situación de deteccion ambigua de fallas.  Por ejemplo:

  • Si un Team cuenta con 4 NICs, utilizando la formula de N-2, es posible detectar fallas de hasta 2 NICs en el Team, antes de que Beacon Probin deje de ser efectivo y entregue resultados ambiguos.


Se recomienda habilitar Beacon Probing en los siguientes casos:

  • El Team cuenta con 3 o más NICs.
  • Cuando las fallas de link downstream (links que no se conectan directamente al host) pueden impactar la disponibilidad.
  • Cuando Link State Tracking no se encuentra disponible en el Switch Fisico.

Espero que les sea de utilidad

viernes, 4 de noviembre de 2011

vSphere 5: Soporte Virtual Numa (vNUMA)



En un post anterior describimos la arquitectura NUMA y como esta se integraba con los mecanismos de administración de recursos en vSphere 4.x.

En vSphere 5, si bien la arquitectura base no sufrió cambios, se introduce el soporte para exponer la topologia NUMA virtual a los sistemas operativos de las máquinas virtuales, lo cual permite mejorar la performance facilitando el uso de las optimizaciones NUMA tanto por el sistema operativo, como por las aplicaciones "NUMA-aware" en las MVs.



La topologia NUMA virtual o vNUMA se encuentra disponible en MVs que utilizan hardware virtual version 8, y está habilitado por defecto cuando el numero de vCPU es mayor a 8.  Esto ultimo es posible de cambiar modificando el parametro avanzado "numa.vcpu.min".

vNUMA permite que los sistemas operativos y aplicaciones dentro de una MV puedan tomar decisiones NUMA-aware más inteligentes respecto a la asignación de memoria fisica y procesos/threads.



El soporte vNUMA es de mucha utlidad en grandes MVs, las cuales necesariamente utilizan más de un nodo NUMA en un host.
Esto permite un aumento significativo en la performance para aplicaciones intensivas en el uso de memoria, permitiendo alcanzar una performance muy cercana a la performance nativa en el mundo fisico.

Mayor información la pueden obtener en los siguientes links:

VSP2884 - What's New in Performance for VMware vSphere 5.0 (VMworld)
vSphere Resource Management Guide

sábado, 29 de octubre de 2011

vSphere 5: Cambios en el calculo de Slot Size.



En un post anterior detallamos como se realiza el calculo del Slot Size, y su relación con el funcionamiento de HA en vSphere 4.1, cuando esté ultimo se encuentra configurado con el Control de Admision habilitado, utilizando la politica de tolerancia a fallas de 1 o más hosts.

Con el lanzamiento de vSphere 5, el calculo de Slot Size sufrió un pequeño pero importante cambio, lo cual permite un radio de consolidación aun mayor.

En esta ocasión no explicaremos todo el proceso de calculo del Slot Size, y los Slots disponibles en un cluster HA, ya que lo explicamos previamente en el post ya mencionado y el proceso es basicamente el mismo.  A continuación detallaremos el cambio realizado en vSphere 5, y en como afecta al funcionamiento de HA.

Slot Size

Para calcular el Slot Size, VMware realiza los siguientes cálculos:

  • HA calcula el Slot Size de la CPU, según la mayor reserva de CPU entre todas las máquinas virtuales del Cluster.  Si no hay reservas, el valor por defecto para el Slot Size es de 32Mhz.
  • HA calcula el Slot Size de la Memoria con la mayor reserva de memoria entre todas las maquinas virtuales del Cluster ,más el valor de "Memory Overhead".  Si no hay reservas, se utiliza el valor de "Memory Overhead".
He aquí donde observamos el cambio, pequeño pero muy importante, que se ha introducido para HA en vSphere 5, ya que ahora el Slot Size por defecto para la CPU, es ahora de solo 32 Mhz, mientras que en vSphere 4.1 era de 256 Mhz.  Esto quiere decir que si no se utilizan reservas de CPU en un clúster dado, el Slot Size será solo de 32 Mhz, permitiendo el encendido de más Máquinas Virtuales en un clúster HA, mientras se respeta la política de Control de Admision.

El resto del proceso del calculo de Slots disponibles en Cluster HA es el mismo utilizado en vSphere 4.1 y que detallamos en el siguiente post:

Para mayores detalles sobre como funciona HA en vSphere 5, pueden leer el siguiente post publicado recientemente en este blog:

La guia oficial de Disponibilidad en vSphere 5 la pueden encontrar en el siguiente link:

Espero les sea de utilidad.