Virtualización: hacia una infraestructura fluida

CloudDatacenterEmpresasServidoresSoftwareStart-Up

Herb VanHook, vicepresidente de negocio de BMC Software, nos habla en este extenso artículo sobre los crecientes beneficios a la hora de desplegar la virtualización en la empresa.

Virtualización de aplicaciones

La virtualización de aplicaciones se refiere estrictamente al encapsulado de una aplicación por una capa de virtualización desde un sistema operativo local. Estas soluciones “aíslan” las aplicaciones y permiten que se ejecuten en un entorno propio e independiente. Muchas aplicaciones no funcionan correctamente en una plataforma de sistema operativo normal, por lo que las técnicas de virtualización de aplicaciones pueden utilizarse para solventar ese tipo de problemas. Conforme estos modelos se vayan introduciendo en los dispositivos de cliente, la ecuación del coste de propiedad para dar soporte a los usuarios se va a alterar. Las empresas tendrán que reconsiderar la forma en que dan servicio a sus usuarios finales, utilizando opciones de virtualización de aplicaciones para ofrecer nuevas modalidades de cliente ligero. Estas técnicas de virtualización de aplicaciones, junto con el modelo de software en dispositivo virtual van a suponer una transformación de gran calado en el modo actual de desarrollo y despliegue del software tal y como lo conocemos hoy.

Las etapas de la Gestión la Virtualización

A pesar de que las primeras iniciativas de virtualización de servidores y consolidación en los centros de datos han perseguido una reducción de gastos de capital, el impacto sobre los costes operativos es mixto. Los crecientes costes de la energía se pueden reducir (menos consumo eléctrico y menos necesidad de refrigeración), pero los costes generales de gestión pueden aumentar ya que se necesitan nuevos conocimientos y la posibilidad de una proliferación de servidores virtuales se acaba convirtiendo en un hecho real. Las organizaciones de IT van a necesitar dotarse de planes bien diseñados y nuevas alternativas para evitar el posible aumento de costes de gestión que pueden acarrear los entornos virtuales.

Actualmente, la gestión de la virtualización se hace bajo una estrategia en tres etapas. La primera es la planificación del entorno virtual. En una encuesta de Gartner de agosto de 2007, aproximadamente un tercio de los consultados afirmaban que la planificación previa a la consolidación había sido el principal problema a la hora de gestionar los entornos de servidor virtual . Un estudio de BMC considera que esta tendencia va a reducirse con el tiempo, a medida que cada vez más organizaciones adopten soluciones de virtualización de forma generalizada. Entre las actividades de planificación se incluyen la designación de candidatos a la virtualización, la definición de las combinaciones de tareas más adecuadas, el análisis de capacidad, planificación del despliegue y demás.

El reto principal, según los encuestados en el estudio antes mencionado de Gartner, era mantener bajo control la proliferación de máquinas virtuales. La clave para evitar este fenómeno consiste en una función de descubrimiento que identifique y clasifique el entorno virtual, y establecer una relación sólida y la detección y definición de las dependencias del entorno virtual (incluyendo las configuraciones dentro de un hypervisor), con respecto su entorno físico. Esto se amplía con el control y buen conocimiento de la historia de replicación de imágenes virtuales a medida que se van creando y modificando a lo largo de su ciclo de vida.

La siguiente etapa es la actividad de configuración. En un entorno virtual, los cambios de configuración y actividades relativas al cumplimiento se hacen más difíciles. El cambio y configuración dinámicos son necesarios para soportar las “personalidades” de las máquinas virtuales, que van cambiando con el tiempo. El aprovisionamiento, la configuración y parcheo han de integrarse dentro de las actividades del ciclo de vida. El control de accesos durante las actividades de configuración deben presentar un grado de detalle más granular (accesos al dispositivo físico, accesos a la máquina virtual, accesos a una configuración concreta, etc.) En realidad, un adecuado control de accesos y segregación de tareas para el aprovisionamiento y la configuración va a distinguir las tácticas de gestión propias de las grandes organizaciones de lo que se pueden considerar simples “herramientas” de configuración.

La tercera etapa es el mantenimiento posterior. ¿Cómo puede realmente una empresa aprovechar bien su entorno virtual, sacar el máximo rendimiento a sus recursos y saber cuáles están disponibles para ejecutar cualquier tarea? Las empresas tienen que asegurarse de que los indicadores de rendimiento principales de sus entornos virtuales se pueden integrar correctamente con los indicadores de rendimiento del resto del entorno. Es preciso conocer cómo afecta la virtualización a los niveles de servicio. Las herramientas de gestión han de poder extenderse al “mundo virtual”. Además, la gestión posterior tiene que ser compatible con operaciones nativas (es decir, inicio, parada) de entornos virtuales heterogéneos.

La virtualización debe ser planificada, configurada y administrada. Si se divide la virtualización en estas tres etapas, a la mayoría de organizaciones de TI les parecerá totalmente razonable, ya que casi siempre coincidirán de forma directa con el modelo que dichas organizaciones suelen tener para repartirse y gestionar sus responsabilidades. Muchas organizaciones de TI disponen de una función de planificación, arquitectura o gestión de la capacidad. Tienen una función diferente que se encarga de la administración de sistemas para las tareas de configuración y además disponen de funciones de operación y mantenimiento posterior.

Últimos Whitepapers