Los límites de los sistemas HCI de primera generación

La primera generación de sistemas hiperconvergentes ya lleva varios años en el mercado. No obstante, estos sistemas aún traen consigo ciertas limitaciones. Uno de los principales problemas que presentan es que estos sistemas no están diseñados para trabajar con múltiples aplicaciones en paralelo. Esto se debe a que los sistemas HCI de primera generación no ofrecen ningún mecanismo para asignar y garantizar recursos a cada solución para así ofrecer una mayor calidad de servicio.

Cuando un número elevado de aplicaciones se está ejecutando al mismo tiempo en un único sistema, se suele dar el fenómeno que se ha dado en llamar “síndrome del vecino ruidoso”: la aplicación que exige recursos de forma más imperante, como pueda ser una mayor cadencia de I/O o un mayor ancho de banda, es la que los obtiene. El resto de las aplicaciones se ven obligadas a conformarse con las sobras, con la consiguiente caída de rendimiento.

Esto hace imposible garantizar un funcionamiento correcto y fluido de todas las aplicaciones. Así, por ejemplo, ejecutar una infraestructura de puestos de trabajo virtuales en el mismo sistema que una base de datos de producción deja de ser una opción, ya que cada aplicación puede interferir en el rendimiento de la otra. Si la base de datos de producción es la infraestructura para una tienda web, eso se traduce en retrasos a la hora de solicitar páginas web o realizar consultas en su base de datos. Los clientes acabarán por hartarse de ese tiempo perdido, con las consiguientes pérdidas económicas para el negocio.

Esta variabilidad en el rendimiento suele derivar en que las compañías empleen sistemas HCI distintos para cada aplicación. Esto significa que, en lugar de cumplir su objetivo inicial de consolidar y simplificar sus centros de datos en una única solución, las empresas acaban operando, una vez más, sistemas aislados que no les es posible unificar. Y los administradores tecnológicos se ven, una vez más, en la situación de tener que lidiar con un gran número de sistemas que tienen que administrar uno por uno. Los datos, por supuesto, también quedan aislados dentro de cada sistema. Esto evita poder analizarlos de forma eficiente y económica.

Otra limitación importante de los sistemas HCI de primera generación es su escalabilidad. Al fin y al cabo, no permiten expandir la capacidad de almacenamiento y de procesamiento de los equipos de forma independiente. Si una compañía necesita más almacenamiento, necesariamente deberá invertir en más CPU. Esto resulta en un exceso innecesario de hardware, que a su vez conlleva más costes: si las licencias de las aplicaciones van en función del número de núcleos del sistema, un mayor número de núcleos traerá consigo mayores costes por licencia. Esto es importante porque rara es la vez en que las cargas de trabajo varían de escala de forma lineal. Muy al contrario, suelen variar de escala en función del crecimiento y las oportunidades de cada momento. Con frecuencia, resulta difícil predecir cuándo va a surgir una oportunidad, pero cuando ésta llega todos queremos poder variar nuestra escala bajo nuestros propios términos. Por supuesto, con sistemas HCI de primera generación, esto no es posible.

Requisitos para una nueva generación de centros de datos

Para que las empresas puedan hacer un uso eficiente de sus sistemas HCI en el contexto general de su trabajo, evitar la fragmentación de su entorno y ahorrar costes, sus sistemas HCI deberán cumplir una serie de requisitos, que cabe esperar de todo centro de datos de nueva generación.

  • Una escalabilidad flexible y a nuestra medida

Un centro de datos de nueva generación (o NGDC según sus siglas en inglés, Next Generation Data Center) debe ser capaz de adaptarse de forma flexible a las necesidades de cada momento. Esto significa que debe ser capaz de cambiar de escala horizontalmente. Con esto queremos decir que su diseño debe permitir expandirlo conforme sea necesario mediante la incorporación de nuevos nodos de computación y almacenamiento. Así, las limitaciones de un NGDC nunca vienen impuestas por el hardware, sino por qué opciones nos brinda el hipervisor, su sistema de gestión de máquinas virtuales. Sin embargo, la clave de la cuestión es la siguiente: almacenamiento y capacidad de computación deben poder escalarse de forma independiente. Esto permite a los responsables tecnológicos optimizar costes y evitar un sobreprovisionamiento de recursos.

  • Rendimiento garantizado: lo que la empresa necesita, cuando lo necesita

Para poder ofrecer un uso eficiente capaz de adaptarse a la demanda, un NGDC debe ser capaz de copar con múltiples aplicaciones ejecutándose en paralelo. Para hacer esto posible, el NGDC debe ofrecer opciones de gestión que permitan establecer un nivel de rendimiento garantizado para cada aplicación. Esto impide que las diversas aplicaciones acaben compitiendo por los recursos disponibles, lo que a su vez garantiza un servicio de mayor calidad.

  • Una administración automatizada, centrada en los recursos virtuales y no en la gestión de infraestructuras

La automatización es un elemento clave a la hora de ahorrar tiempo y evitar errores. Con frecuencia, los administradores tecnológicos pasan buena parte de su tiempo lidiando con tareas recurrentes. Esto les impide utilizar su productividad para fomentar la innovación en su organización. Es por ello que los NGDC deben estar organizados de forma que los procesos rutinarios, como puede ser el aprovisionamiento de una nueva máquina virtual, se realicen de forma automática, partiendo de una serie de scripts y perfiles de uso. En un entorno ideal, los programadores podrían incluso configurar un servidor de prueba de forma independiente a través de un portal de servicios autogestionados con solo unos pocos clics, sin que los administradores del centro de datos tengan que intervenir.

  • Una gestión de los datos más sencilla: puesta en marcha y aprovisionamiento listo para la producción en un solo día

Hoy en día las empresas se enfrentan a la tarea de tener que gestionar un torrente cada vez mayor de datos, procedentes de diferentes fuentes y que deben distribuir a través de diversos sistemas. Estos datos son un activo muy valioso para cualquier organización. Para poder exprimir todo su potencial, los NGDC deben simplificar su gestión considerablemente. Así, las compañías deben ser capaces de transferir datos de una ubicación a otra de forma fácil y sencilla, ya sea entre diferentes entornos o clouds en fase de producción. Esto requiere que los datos presenten un formato homogéneo y se puedan gestionar mediante sistemas de transferencia de datos que funcionen de forma predecible y constante.

  • Un rendimiento a prueba de fallos o la fiabilidad como factor clave para generar confianza

Los centros de datos tradicionales utilizan cabinas RAID, que permiten hacer copias de seguridad y recuperarlas cuando un componente concreto deja de funcionar. Estos sistemas ofrecen un espacio de almacenamiento redundante, que se traduce en mayores costes de hardware. Los NGDC también utilizan sistemas de almacenamiento redundante. No obstante, cuentan con la ventaja de que la asignación de los datos se realiza automáticamente y de que las aplicaciones pueden transferirse a otros recursos de la infraestructura cuando ésta sufra un problema. Los NGDC, por así decirlo, tienen la capacidad de curarse por sí solos. Los bloques de datos se duplican en el sistema y, en caso de que un SSD deje de funcionar, se restauran automáticamente mediante procesos inteligentes. Además, el hipervisor debe ser capaz de transferir las máquinas virtuales afectadas a áreas de la infraestructura que no se vean afectadas por la avería. Así, el servicio se restablece en cuestión de minutos, en lugar de horas o días.

¿Para qué organizaciones y qué aplicaciones son recomendables los sistemas HCI de segunda generación?

Las infraestructuras hiperconvergentes son ideales para todas aquellas aplicaciones en las que se necesiten elevados niveles de agilidad, automatización y escalabilidad, unidos a una gran sencillez de administración. Además, estos sistemas de segunda generación son idóneos para entornos con muchas aplicaciones diferentes ejecutándose en paralelo. Esto permite a las empresas consolidar su ecosistema tecnológico y simplificar enormemente su gestión. Los HCI de segunda generación son de gran interés para todos los sectores de actividad, como pueden ser el industrial, el financiero o el comercial. A continuación, mostramos una serie de ejemplos de aplicaciones que pueden beneficiarse de la mayor escalabilidad, consolidación y calidad de servicio que ofrecen estas plataformas unificadas:

  • Puestos de trabajo virtuales

Hoy en día, muchas compañías optan por organizarse empleando entornos de puesto de trabajo virtuales. Estos sistemas permiten a los departamentos tecnológicos configurar entornos de trabajo desde una consola central y asignar a cada empleado los recursos que necesite. En estos entornos los usuarios disfrutan de una mayor flexibilidad, ya que su entorno de trabajo está disponible en cualquier terminal con solo iniciar sesión. Los entornos de puestos de trabajo virtuales deben ser capaces de variar de escala con gran inmediatez, permitiendo incorporar a nuevos empleados de forma rápida y sencilla. Este es un ejemplo muy característico de aplicaciones que se benefician del uso de sistemas HCI. Además, con los sistemas HCI de segunda generación, las compañías pueden ejecutar otras aplicaciones y bases de datos en paralelo, lo que redunda en infraestructuras más simples.

  • Bases de datos SQL y NoSQL

Los sistemas HCI de segunda generación son perfectos para mantener bases de datos SQL y NoSQL de gran tamaño, que requieren de una gran escalabilidad, un elevado rendimiento y una gran capacidad de resistencia a los fallos. Además, las soluciones HCI permiten tener las bases de datos funcionando de nuevo poco después de una avería, al estar los datos distribuidos por múltiples nodos. Todos los nodos están virtualizados, lo que brinda a los administradores tecnológicos la capacidad de asignar los recursos de servidores y almacenamiento de forma flexible. Gracias a la calidad del servicio que hacen posible, los sistemas HCI permiten trabajar con múltiples bases de datos en un único sistema.

  • Oficinas y sedes en remoto
Manel Picalló, Consulting Solutions Engineer de NetApp España

Las empresas estructuradas en torno a múltiples sedes u oficinas de reducido tamaño suelen tener sus propios sistemas tecnológicos físicos en ellas. Esto se debe a que, generalmente, no resulta posible utilizar un único centro de datos para proveer todas las aplicaciones. Además, con frecuencia, cada sede tiene sus requisitos y necesidades particulares. Sin embargo, este tipo de empresa rara vez cuenta con personal tecnológico específico para cada sede. Precisamente por ello, estas empresas necesitan soluciones ágiles y fáciles de implementar y gestionar. Los sistemas HCI de segunda generación son perfectos en estas situaciones, ya que aglutinan todos los componentes necesarios para un centro de datos en un único chasis compacto, que puede ser administrado desde una consola central. Estos sistemas brindan a las organizaciones la capacidad de trabajar con múltiples aplicaciones y centros de datos en paralelo, como pueda ser una base de datos de clientes y una de producción, aplicaciones de gestión empresarial como SAP o Microsoft Dynamics, e incluso un servicio de transferencia de archivos y un entorno de puestos de trabajo virtuales, de ser necesario. Al ejecutarse todas las aplicaciones en un único sistema HCI, la infraestructura necesaria resulta más sencilla y económica que otras soluciones.

  • DevOps y desarrollo ágil de software

Hoy en día y con cada vez mayor frecuencia, las empresas recurren a metodologías de desarrollo ágil de software, como pueden ser Scrum o Kanban. DevOps también aplica estos mismos conceptos al funcionamiento del departamento de tecnología. El objetivo que se busca con ello es automatizar cuantos procesos sea posible, con el fin de acortar los ciclos de publicación. Por ejemplo, automatizaríamos procesos como generar builds desde repositorios y realizar tests de rendimiento y del sistema. Los desarrolladores suelen almacenan su código en un repositorio centralizado. Este tipo de repositorios requieren una infraestructura de almacenamiento escalable, que permita incorporar nuevos proyectos tan rápidamente como sea necesario. Y para que DevOps cuente con todos los recursos que pueda necesitar, el almacenamiento también deberá ofrecer elevados niveles de automatización. Los sistemas HCI de segunda generación cumplen estos requisitos con creces. Al permitir a los administradores tecnológicos coordinar el almacenamiento y los servidores desde una consola compartida, éstos pueden adaptar los repositorios más rápida y fácilmente que lo que sería posible empleando infraestructuras de almacenamiento y servidores independientes.

  • El edge computing y el Internet de las Cosas

Muchas empresas usan soluciones de edge computing (o computación perimetral) como parte de sus proyectos de Industria 4.0 e Internet de las Cosas (IoT). Esto suele pasar cuando se instalan microcentros de datos directamente en la planta de producción, que analizan los datos allí donde son recabados y solo remiten al centro de datos principal los datos más relevantes. En este tipo de planteamientos, rara vez contamos con personal tecnológico disponible en la planta. Para este tipo de casos, las compañías necesitan sistemas que ofrezcan gran capacidad de procesamiento y almacenamiento que, al mismo tiempo, permitan ponerse en funcionamiento y gestionarse con poco esfuerzo y a costes contenidos. Otro aspecto importante de las soluciones HCI en proyectos para el IoT de este tipo es que debemos poder contar con la opción de transferir los datos del HCI a un sistema de almacenamiento en el cloud de forma fácil y sencilla. Del mismo modo, debemos tener la posibilidad de combinar los datos que recabe con los datos provenientes de otras fuentes y analizarlos directamente en el sistema HCI. Es en este tipo de situaciones en las que las funciones de gestión que ofrecen los centros de datos de nueva generación son de gran utilidad.

Los HCI de segunda generación son una opción sólida tanto para sistemas de edge computing como para los centros de datos principales. Gracias a su flexibilidad y escalabilidad, los HCI son de gran interés para empresas de todos los tamaños, ya que permiten a los responsables tecnológicos sentar las bases con una configuración mínima, y expandirla a posteriori en función de sus necesidades exactas.

Cada vez más compañías se organizan empleando infraestructuras hiperconvergentes. El mercado de HCI está experimentando un fuerte crecimiento y, según los analistas de Gartner, para 2019 alcanzará un volumen de facturación de 5.000 millones de dólares. Mientras que los sistemas anteriores aún tienen que lidiar con restricciones en materia de escalabilidad y ejecución en paralelo de múltiples aplicaciones, los sistemas de segunda generación eliminan estos problemas, y permiten variar la escala del almacenamiento y la capacidad de procesamiento de forma independiente, así como ejecutar múltiples aplicaciones en paralelo en un mismo sistema. Todo ello permite a las empresas aprovechar las nuevas oportunidades de negocio que puedan presentarse, en cuanto surgen, además de ganar en agilidad en su día a día. Otras ventajas son una mayor facilidad y sencillez de gestión y unos elevados niveles de automatización. Por todo ello, los sistemas HCI de segunda generación cubren todos los requisitos que cabe esperar de los centros de datos de nueva generación y contribuyen a una mayor digitalización para las empresas.

Firma invitada

Nombres destacados del sector TIC opinan sobre las principales tendencias de la industria.

Recent Posts

La IA en el lugar de trabajo: lo bueno, lo malo y lo que hay que tener en cuenta

En esta tribuna, David Parry-Jones, Director de Ingresos de DeepL, analiza el impacto de la…

2 semanas ago

Físico vs Digital: la importancia de la prueba de producto en la era de Internet

En esta tribuna, Ignacio Zaera, fundador y CEO de Simpling.pro, explica la importancia del sampling…

2 semanas ago

Datos de calidad: El secreto para evitar errores en la Inteligencia Artificial

Sergio Rodríguez de Guzmán, CTO de PUE, explica en esta tribuna cómo la calidad de…

1 mes ago

Zoom lanza AI Companion 2.0 y Zoom Workplace para optimizar la productividad empresarial

Zoom presenta su nueva versión de AI Companion y Zoom Workplace, con herramientas para optimizar…

1 mes ago

Crear una cultura de seguridad proactiva es crucial a medida que avanza la IA generativa

En esta tribuna, Mark Ryland, Director de Seguridad de Amazon, explica la importancia de una…

1 mes ago