Diez buenas prácticas para una gestión eficaz de las aplicaciones virtualizadas

La introducción de la virtualización ha transformado el mundo de las TI. Si bien ofrece unos ahorros muy importantes y mejora la flexibilidad de las empresas, la virtualización introduce nuevos y complicados retos a la gestión de aplicaciones, de tal manera que las herramientas y técnicas de monitorización del rendimiento tradicionalmente utilizadas para los elementos físicos resultan insuficientes en entornos virtuales. Un entorno virtualizado gestionado de manera inapropiada puede originar problemas y contención a nivel físico, impactando de manera notable el rendimiento de no sólo una de las aplicaciones, sino del conjunto de aplicaciones que se ejecutan sobre la misma plataforma virtual.
Esto exige un replanteamiento de las estrategias y una nueva generación de soluciones que garanticen el soporte y la continuidad del servicio.

Hay muchas y muy buenas razones para adoptar la virtualización. La virtualización mejora aspectos como la continuidad de negocio, la recuperación ante desastres, la flexibilidad y la agilidad interna en las empresas; reduce los tiempos de pérdida de servicio y contribuye a un aprovechamiento más eficiente del backup, la alta disponibilidad y el almacenamiento. Los costes se reducen debido a que la virtualización permite consolidar máquinas físicas generalmente utilizadas por debajo de su potencial dentro de un mismo sistema físico host que ejecuta múltiples máquinas virtuales, las cuales comparten su CPU, memoria, discos y adaptadores de red.

Por otro lado, la gestión del hardware y software resultantes se puede hacer con menos personal en un entorno virtualizado, y el consumo eléctrico también se reduce, reduciendo la factura por consumo eléctrico.

A la vista de todos estos beneficios, sin embargo, debemos reconocer que el éxito de la virtualización consiste en empezar de forma modesta. Se trata de una implementación paso a paso, que arranca con la virtualización de aquellas áreas de un entorno que generarán el menor impacto y sobre el menor número de usuarios, y desde ahí seguir avanzando.

Habrá que analizar todas las tareas potenciales y determinar en cada entorno cuáles son las mejores candidatas a la virtualización. Debemos asegurarnos de que tenemos un conocimiento completo de cada uno de los componentes y de las aplicaciones, servicios de negocio y también de las expectativas de los usuarios finales. También tenemos que saber cómo habrá que administrar las aplicaciones y bases de datos dentro del nuevo entorno virtualizado.

Sin embargo, muchas organizaciones no sacan el máximo partido a las ventajas que ofrece la virtualización, y esto se debe, no solo a que sus infraestructuras virtuales no han tenido en cuenta todos estos asuntos mencionados antes, sino al mal rendimiento de las aplicaciones… La gestión del rendimiento de las aplicaciones en un entorno virtualizado tiene que orientarse decididamente hacia el usuario final. Los usuarios deben mantener su productividad y han de estar satisfechos con el rendimiento del sistema, por lo que un plan de aplicaciones eficaz debería, ante todo y sobre todo, considerar su impacto en los usuarios y eliminar aquellas incidencias de rendimiento que pudieran perjudicar su productividad.

Una buena planificación y una serie de buenas prácticas son la clave de un entorno virtual bien desarrollado, capaz de alcanzar un rendimiento óptimo, de contener los costes y ofrecer un ROI significativo a la organización, y por supuesto contribuir de manera efectiva a lograr los objetivos de los usuarios finales.

Para empezar, tenemos que conocer al detalle el nivel de madurez tecnológica de nuestra organización: ¿muestra un bajo nivel de madurez, con escasa monitorización, es un entorno caótico con quejas frecuentes de los usuarios? ¿O por el contrario se trata de una organización madura, en la que se cumplen los SLAs de forma sistemática y los usuarios se sienten cómodos? Puede que nuestro caso se sitúe entre ambos extremos.

Un plan de gestión del rendimiento de las aplicaciones debe considerarse como un proceso de mejora continua que evoluciona a medida que cambian las necesidades de la organización.

Esto supone también cambiar la mentalidad del personal de TI y su forma de ejecutar sus tareas, para avanzar hacia un modelo de gestión de servicios que se oriente de forma decidida hacia la percepción que se tiene, desde el punto de vista del usuario, de la calidad de servicio que ofrecen las tecnologías de información.

Page: 1 2 3

DRosolen

Recent Posts

¿Cómo está impactando la inteligencia artificial en la gestión del retail?

En esta tribuna, Joaquim Borrás, consejero asesor de SISQUAL, explica cómo la inteligencia artificial transforma…

5 días ago

La IA en el lugar de trabajo: lo bueno, lo malo y lo que hay que tener en cuenta

En esta tribuna, David Parry-Jones, Director de Ingresos de DeepL, analiza el impacto de la…

3 semanas ago

Físico vs Digital: la importancia de la prueba de producto en la era de Internet

En esta tribuna, Ignacio Zaera, fundador y CEO de Simpling.pro, explica la importancia del sampling…

3 semanas ago

Datos de calidad: El secreto para evitar errores en la Inteligencia Artificial

Sergio Rodríguez de Guzmán, CTO de PUE, explica en esta tribuna cómo la calidad de…

1 mes ago

Crear una cultura de seguridad proactiva es crucial a medida que avanza la IA generativa

En esta tribuna, Mark Ryland, Director de Seguridad de Amazon, explica la importancia de una…

2 meses ago