Evolución de la infraestructura física
La virtualización de servidores se ha desarrollado en paralelo con la evolución de las plataformas informáticas, desde la arquitectura modular “blade” que está ganando terreno actualmente por su densidad y por su facilidad de implementación, a las opciones de sistemas multicore que ofrecen diversos fabricantes de servidores de gran capacidad. Igual que las arquitecturas de mainframe han evolucionado durante las pasadas décadas, optimizándolas para entornos virtuales, las arquitecturas x86 y otras arquitecturas de servidores distribuidos han empezado ya su propio itinerario simbiótico con opciones de virtualización. En consecuencia, muchas capacidades de virtualización ofrecidas por software (hypervisor) actualmente se van a trasladar al hardware en el futuro. Esta migración de la virtualización desde el software al hardware se puede observar en otras muchas áreas de forma parecida. Por ejemplo, las capacidades gráficas avanzadas de los ordenadores personales fueron en su día el dominio de una serie de funciones de software concretas, pero actualmente se ejecutan en chipsets especializados.
Los fabricantes de microprocesadores, como Intel y AMD, ofrecen sus contribuciones para la virtualización, como por ejemplo el soporte nativo para tabla de páginas para la gestión de memoria virtual, y van a seguir ofreciendo funciones de hardware exclusivamente orientadas a la virtualización. Entre estas capacidades podemos ver múltiples opciones de mensajes en cola, procesadores especializados para Entrada/Salida, opciones avanzadas de gestión de la memoria, etc. Los fabricantes de equipos de hardware además están reconvirtiendo sus arquitecturas de plataforma, optimizándolas para entornos virtualizados.
Obviamente el software de virtualización debe evolucionar también para aprovechar al máximo estas nuevas funciones del hardware. Al final seguiremos asistiendo a una especie de “carrera armamentística” entre los fabricantes de plataformas de hardware y los de software de virtualización. No obstante, llegará el día en que la ejecución de un entorno de servidor virtual suponga un sobrecoste despreciable en comparación con un entorno de servidor físico puro. La virtualización para entornos informáticos distribuidos se va a convertir dentro de poco en una tecnología embebida, tanto en el caso de los servidores como de los equipos de cliente.
Conforme vayan apareciendo nuevas opciones de virtualización, los arquitectos de las grandes compañías van a tener que elegir las plataformas más adecuadas para sus organizaciones. La mayoría de empresas probablemente van a terminar con dos, tres o más plataformas de virtualización. Actualmente un 40% aproximadamente de las tareas ejecutadas en las empresas son candidatos razonablemente buenos para la virtualización, según ciertas estimaciones de analistas del sector. Las empresas que actualmente están valorando nuevos proyectos de implantación de servidores tienden a pensar de forma inmediata en la virtualización de dichas tareas. Aunque las nuevas tareas serán definitivamente candidatas para la virtualización, son las aplicaciones más antiguas las que suponen el mayor problema.
Equipos virtuales
Ha aparecido una nueva familia de aplicaciones, aquellas que se han distribuido en forma de paquetes preconfigurados y de fácil instalación. Esta estrategia de “caja negra” –donde el paquete contiene el sistema operativo, la base de datos, el middleware y el código de la aplicación- puede reducir la complejidad de la instalación, configuración, mantenimiento y seguridad. Actualmente sólo unos pocos fabricantes hacen uso de estos paquetes de “equipo virtual”, pero seguramente serán mucho más utilizados en el futuro, y no solamente para los productos elaborados por fabricantes de software, sino también para aplicaciones propias hechas a medida.
En el pasado, las empresas dirigían su mirada hacia modelos de sistemas basados en una plataforma de hardware concreta. Hoy día, cuando un fabricante de software vende su producto, entrega una serie de paquetes de software que el cliente ha de instalar, parchear, configurar y poner en marcha. El software presenta y añade numerosos niveles de trabajo sobre una plataforma en ejecución. La manera en que tradicionalmente se ha resuelto esta estructuración en niveles ha consistido en poner el sistema operativo en el servidor y después poner encima los sistemas necesarios, como el servidor Web, el servidor de bases de datos, o el servidor de archivos.
En el futuro los fabricantes van a hacer algo más que un cambio de aspecto. En lugar de un conjunto de paquetes que pueden instalarse, parchearse y configurarse de forma individual, los clientes van a recibir una imagen instalada y preconfigurada de este software con todos los subsistemas que necesiten para ejecutarlo. Simplemente lo copiarán dentro de su entorno de run-time.
El auge de equipos virtuales va a acelerar además el tránsito a los modelos de cloud computing y en red (una alternativa a la presencia de servidores en local o dispositivos personales que ejecutan las aplicaciones de usuario), y también van a promover un despliegue acelerado de las opciones de software como servicio (SaaS). La virtualización dentro de poco se convertirá en la plataforma de referencia para el aprovisionamiento de servicios alojados, lo que ofrece una vía directa para la adopción de dispositivos virtuales. Al aprovechar la independencia entre el hardware y el sistema operativo con respecto a la pila de aplicación que facilita la virtualización, estos dispositivos virtuales podrán ofrecer sencillez y economías de escala.
En esta tribuna, Antonio Espuela, Director Technical Sales EMEA Western de Hitachi Vantara, explica el…
En esta tribuna, Sandy Ono, Executive Vice President y Chief Marketing Officer en OpenText, explica…
Ray Heffer, CISO en Veeam, explica en esta tribuna por qué la IA es una…
Juan Francisco Moreda, responsable de /fsafe en fibratel, explica en esta tribuna los desafíos y…
Diego León, CEO de Flameera, explica en esta tribuna cómo simplificar la ciberseguridad para que…
En esta tribuna, Bill Waid, responsable de tecnología en FICO, explica cómo eliminar la incertidumbre…