José Miguel Casas, director general de Stratus Technologies para España y Portugal, explica la importancia de mantener en armonía la infraestructura física y los sistemas virtualizados.
Al mismo tiempo que la virtualización se consolida rápidamente en un estándar para la consolidación de servidores ofreciendo una plataforma más elástica para las empresas, la continuidad se convierte en un área que cualquier empresa debe considerar. Sin embargo, a pesar de los avances logrados por la virtualización para elevar los niveles de disponibilidad, la infraestructura física sigue siendo crítica.
Una máquina virtual (MV) es independiente del hardware sobre el que se ejecuta. Esto significa que puede ser movida de un servidor físico a otro y seguir procesando las instrucciones. La transferencia de MV puede requerir unos pocos segundos de inactividad (en el caso del Hyper-V de Microsoft) o bien puede hacerse “en directo”: la MV es clonada y arrancada en un segundo servidor físico, y los usuarios pasan del uno al otro sin impacto sobre el rendimiento. Este es el caso de los productos de VMware.
Esta capacidad para pasar de una máquina a otra elimina gran parte del tiempo de inactividad prevista. Las actualizaciones en los servidores físicos se pueden llevar a cabo sin necesidad de perder aplicaciones ni llevar a cabo trabajos fuera del horario normal de oficina. De esta manera, se evitan molestias a los usuarios y se reducen los costes. Además, eleva el nivel general de disponibilidad de las aplicaciones, ya que pueden ser movidas por todo el parque de servidores de la empresa en caso de que haya problemas.
Sin embargo, cuando se trata de analizar el riesgo al que se expone la empresa, la virtualización puede ser una fuente de inseguridad. Esto se debe a que el número de aplicaciones que se verían afectadas por un fallo de servidor es mucho más alto: mientras en un entorno físico un fallo en el servidor afectaría a una sola aplicación, en un sistema virtualizado, este mismo fallo afectaría a varias máquinas virtuales.
Aunque es posible emplear dispositivos para transferir automáticamente las MV, esto puede no ser suficiente para una empresa que debe proteger una aplicación crítica contra el riesgo de fallos. El fallo provocaría la pérdida de los datos no guardados, y las transacciones procesadas en el momento de producirse el fallo se perderían. Para las organizaciones donde cada transacción es crítica, este es un riesgo inaceptable.
Protegerse de esta amenaza requiere entender cómo las infraestructuras físicas y virtuales pueden trabajar juntas para evitar que un fallo llegue a afectar el rendimiento de las aplicaciones. Esto va más allá de cualquier elemento concreto del sistema y supone tratar al conjunto del sistema como una red que debe ser protegida. A nivel virtual, esto puede implicar clusters de máquinas virtuales y emplear un conjunto de normas para dividir el cluster a través de varios huéspedes físicos.
En el entorno físico, los servidores también deben ser protegidos para evitar la pérdida de datos no guardados. Emplear servidores resistentes a fallos como plataforma huésped puede ofrecer este grado de protección extra para aplicaciones críticas. Un servidor tolerante a fallos incluye toda una serie de componentes duplicados y, en caso de problemas, puede seguir procesando instrucciones y esta garantía extra ofrece un mayor nivel de seguridad para las máquinas virtuales alojadas en el servidor y asegura que la caída del sistema no afecta al nivel de resultado de las aplicaciones.
Con tantas aplicaciones ejecutadas en un número cada vez menor de máquinas físicas, la resistencia de éstas se convierte en un punto de atención clave. Si quieres llevar todos los huevos en una cesta, asegúrate de que sea la cesta más sólida que puedas encontrar.