“La virtualización se conforma como la mejor vía de escape para garantizar las necesidades del negocio”
En una entrevista para los lectores de eWEEK, Alejandro Solana, director técnico de VMware Iberia, nos habla del pasado, presente y futuro de esta fascinante tendencia.
De entre los distintos sistemas operativos en los que se implantan las soluciones de virtualización, ¿cuál de ellos es más amigable para VMware?
Nuestra visión de lo que tiene que ser la virtualización es ser, entre comillas, agnóstico, por debajo y por encima de nuestra plataforma. Por debajo a nivel de plataforma hardware.
Cualquier tipo de fabricante y modelo de servidor y almacenamiento. Por encima, prácticamente cualquier tipo de sistema operativo, en este sentido la lista llega a casi 80 sistemas soportados, todas las versiones Windows, desde NT 4.0 hasta 2008, Linux, Red Hat Suse, Ubuntu, FreeBSD, distribuciones más Open Source, no empresarial. Después Solaris en plataformas Intel e incluso Novell. Con lo cual nuestro planteamiento es que el cliente elija la infraestructura y la plataforma de servicios que realmente necesita y nosotros le aportamos la plataforma elástica, auto gestionada y auto securizada que responde a las necesidades de negocio.
Y para entornos Mac…
Estamos en la versión 2.0 de Fusion, anunciada en septiembre. Se instala en esta plataforma y permite ejecutarse en Mac Book, Macbook Pro… con máquinas virtuales de distintos sistemas operativos. Con lo cual en vez de tener que utilizar las clásicas particiones para ejecutar distintos sistemas, ahora ya se puede llevar a cabo de forma concurrente.
¿Cuál es la reacción típica de los potenciales clientes cuando se les muestra la posibilidad de virtualizar sus sistemas?
Ha cambiado bastante. El tema cultural del que hablaba al principio influye, pero ha cambiado durante este último año y lo hará más aún durante 2009, donde el modelo de virtualización será ya bastante conocido. Lo que suelen plantear está relacionado con el parque físico de la empresa. Cómo se va a poder dimensionar, cuántas máquinas virtuales por servidor, cuánto va a suponer el coste final del proyecto…
En este sentido, tal y como se encuentra la situación económica actual el tema de reducción del coste se agudiza más y la virtualización se conforma como la mejor vía de escape para garantizar las necesidades del negocio desde el punto de vista de la infraestructura. Es una tecnología que hace más suave la travesía por el desierto en el que nos encontramos…
En cierta forma este tipo de tecnologías está ayudando bastante a las empresas a poder mantenerse a la altura sin que sus cuentas se vean tan afectadas.
Las ayudas se realizan desde distintos puntos de vista. Poder ejecutar más máquinas virtuales en un servidor físico se convierten en una reducción de infraestructura. También en el caso de aquellos equipos que ya han cumplido su ciclo, que antes había que deshacerse de ellos, pero ahora se pueden reutilizar para otros cometidos como los centros de recuperación de desastres. Y por otro lado el tener una infraestructura autogestionada que responde a los picos de consumo, consolidando en menos servidores estas cargas.
AMD e Intel comienzan a implantar es sus chips instrucciones a nivel de hardware para llevar a cabo los procesos de virtualización de forma más eficaz. ¿En qué medida estas nuevas funcionalidades afectan a los productos de VMware?
No nos quitan el trabajo, sino que nos lo están haciendo más fácil. Anteriormente, como la plataforma Intel no estaba pensada para ejecutar varios sistemas operativos, nosotros planteamos una traducción binaria de esas instrucciones, es decir, como tenemos un hypervisor que va a ejecutar en el nivel 0 en la arquitectura Intel, el kernel del sistema operativo se ejecuta en el nivel 1, por lo que no se está ejecutando en su nivel. El resultado de la ejecución de la instrucción puede ser diferente al esperado. Con lo cual, cuando el hypervisor detecta una instrucción que se está ejecutando en un nivel que no le corresponde hace una traducción binaria para garantizar que se ejecuta en el nivel correcto.
Esto que proporcionábamos nosotros antes vía software (precisamente lo que nos ha permitido ejecutar cualquier sistema operativo sin modificación), los fabricantes de procesadores lo están bajando al nivel de la propia CPU.
De esta forma, la idea es que la capa de virtualización sea mucho más fina y sigamos utilizando las funcionalidades avanzadas, como es el caso de la migración en caliente, balanceo, etcétera.
Estas nuevas características, ¿os obligan a reprogramar las aplicaciones o realmente son transparentes?
Son transparentes. Obviamente, hay cierto desarrollo para condicionarlo, pero la idea es que nuestra capa de virtualización no emule el procesador, sino que lo presente tal cual es. El conjunto de instrucciones a nivel cero es acotado, por lo que este acondicionamiento no es tan inmediato o prioritario.