2018, el año de la infraestructura hiperconvergente
Portavoces de NetApp, Nutanix, Lenovo y Rubrik conversan sobre el presente, y el futuro, de un mercado valorado en 2.000 millones de dólares.
Los sistemas de infraestructura hiperconvergente reúnen los ingredientes necesarios para aportar escalabilidad y elasticidad a las empresas, reemplazando a las soluciones de TI tradicionales. Para hablar de sus posibilidades, NetMediaEurope ha reunido a cuatro expertos de la industria tecnológica: Jaime Balañá, Technical Director de NetApp; Alberto Carrillo, Sales Engineer Manager de Nutanix; Manuel Díaz, Solution Sales Executive de Lenovo; y Miguel Ángel Serrano, Sales Engineer de Rubrik
Estos profesionales han sido los protagonistas del encuentro online “2018, el año de la infraestructura hiperconvergente”. En una conversación moderada por Mónica Valle, periodista especializada en TI, los cuatro han analizado el estado de la hiperconvergencia. Han hablado de su crecimiento, de su condición de estándar y de sus ventajas. Del tipo de empresas que se pueden beneficiar de su implementación. Del fenómeno del edge computing. Del papel del software. Del trabajo con los datos. De la seguridad. Y de tecnologías como NVMe y tendencias de futuro.
Un crecimiento del 55 %
Las previsiones de Gartner hacen pensar que este 2018 puede ser el año de la infraestructura hiperconvergente, cuyas ventas están creciendo a un ritmo del 55 % en comparación con 2017. Y el incremento no se frenará ahí. Se calcula que en 2019 este mercado rozará los 5.000 millones de dólares. En estos momentos su valor es de 2.000 millones. A esto contribuyen factores como la agilidad. “Los números hablan muy claro. Está claro que el mercado ha crecido un montón”, dice Jaime Balañá, Technical Director de NetApp, que explica que los clientes buscan “simplicidad”.
“Para muchas empresas la infraestructura IT es como una especie de obstáculo que tienen que solventar para llegar a sus objetivos y la infraestructura hiperconvergente hace que ese obstáculo sea bastante menor”, añade Balañá. Alberto Carrillo, Sales Engineer Manager de Nutanix, coincide en que “el objetivo principal es eliminar esa complejidad”, a la que considera “el activo más caro que tenemos ahora mismo en los data centers”. Lo ve del mismo modo Manuel Díaz, Solution Sales Executive de Lenovo, para quien “olvidarte un poco de gestionar tu infraestructura y dedicarte un poco más al negocio es una oportunidad muy buena”.
Los clientes viven “bombardeados por cosas como el machine learning, la inteligencia artificial, el Big Data” y demás, pero se pueden ver “atados”, comenta Miguel Ángel Serrano, Sales Engineer de Rubrik. Quizás “la infraestructura no les deja avanzar, no es ágil, no es sencilla, no escala como debería ser”. Justo aquí entra en juego la hiperconvergencia, que “soluciona de manera muy sencilla toda esta problemática”, que ha llegado “para quedarse” y que “va a sustituir gran parte de los activos” en el CPD, tal y como describe Serrano.
¿Se puede considerar ya un modelo estandarizado? Alberto Carrillo opina que sí “es algo que es estándar” o, al menos, estamos camino de ello. Se ha pasado de ir “a explicar la solución” a que los propios clientes hagan una función “de boca a boca”. En esos momentos “la labor de evangelización que estamos haciendo es más sobre lo que es una cloud empresarial” con la opción de que “la infraestructura sea un medio para en realidad conseguir la experiencia de una nube pública pero en el data center”. Jaime Balañá cuenta que “el cloud híbrido es la estrategia que están siguiendo la mayoría de los clientes”.
En su caso, Manuel Díaz observa “dos velocidades a la hora de adoptar hiperconvergencia. El típico cliente, pequeño y mediano”, abundante en España, ha sido el primero en reconocer “los valores de esto”. Mientras, entre “los grandes clientes” con “distintas áreas de infraestructura” estaría “costando algo más” por una razón “cultural”. Hay clientes a los que “les cuesta ponerlo todo en hiperconvergencia”, señala también Balañá, “por problemas de rendimiento”. De hecho, “yo creo que siempre va a haber esas reticencias y que va a haber algunas cargas de trabajo que van a tardar o incluso no van a llegar a la hiperconvergencia”, aventura el director técnico de NetApp.
En “la hiperconvergencia nuestro enemigo es el statu quo”, sentencia Alberto Carrillo. En cualquier caso, Miguel Ángel Serrano, opina que, “al final, va a llegar a todos los niveles de nuestro data center: desde la propia aplicación, donde están nuestros desarrolladores, pasando por toda la infraestructura, hasta llegar al último punto, que va a ser la última línea de defensa, que es el backup”.
Tanto Serrano como Díaz apuntan a las empresas más pequeñas como aquellas que obtienen retorno de la inversión con mayor rapidez. “La idea”, recuerda el Sales Engineer de Rubrik, “es que los administradores de las empresas no se dediquen a administrar la infraestructura, sino que sean capaces de administrar los servicios que corren sobre esa infraestructura. De esa manera, lograremos que los servicios crezcan” y “las empresas puedan ofrecer cosas diferenciales en sus negocios frente a lo que ofrece la competencia”. En organizaciones con “un grupo de gestión de la TI más compacto” es “mucho más fácil. Ya no necesitan tener un experto de almacenamiento, un experto de red, un experto de cómputo, ni siquiera un experto… porque una de las cosas buenas de las soluciones hiperconvergentes es la facilidad de gestión”, cuenta Díaz.
“Se cambia un poco el concepto de administrar infraestructura a consumir la infraestructura”, compara el Solution Sales Executive de Lenovo, que encuentra como “ventaja” de “las empresas grandes sobre las pequeñas” el hecho de “que, una vez que van adoptando este tipo de modelos, pueden desplegar las cargas de trabajo también de distintas formas”. Para ellas, “montar infraestructura hiperconvergente de la que se olvidan de gestionar y preocuparse de montar un cloud corporativo sobre ella y poner su máximo empeño y sus recursos ahí también es una gran ventaja”.
Edge computing, el software, las plataformas de datos, la seguridad y NVMe
Más allá del centro de datos, ¿cómo encaja la hiperconvergencia en la tecnología de edge computing? El portavoz de Rubrik detalla que “el edge computing consiste en distribuir las cargas” sin “que las dispersemos” y sin que se “pierda el control de ellas”. Se busca “distanciarlas un poco de lo que sería el core de infraestructura pero, a su vez”, que “todo se comporte como un único sistema”. Esto es algo que “los sistemas tradicionales, sistemas más físicos, no” son capaces de “conseguir”, explica Serrano, al estar “pensados para funcionar de manera más o menos aislada. La única manera de conseguir esto es usando nuevas tecnologías” sin “líneas de comando al uso”.
Alberto Carrillo habla de solucionar “cuatro problemas”, que tienen que ver con “la infraestructura física”, “las aplicaciones cuando son heterogéneas”, “el almacenamiento” y “la gestión”. Con “una consola única”, apunta el representante de Nutanix, “infraestructuras que” se encuentran “replicadas se convierten en una sola y esa es la simplicidad que realmente hace que algunos proyectos de edge” que “no eran viables” si no se invertían “ingentes cantidades de esfuerzo, y con una resiliencia relativa”, ya se puedan “asumir”.
Computación, almacenamiento, conectividad… ahora todo está definido por software. ¿Qué relevancia tiene? ¿Cuál es el papel del software en los entornos hiperconvergentes? Desempeña “el más importante”, según Jaime Balañá. Las distintas soluciones que existen “no tienen mucha diferencia en” cuanto “al hardware físico”, por lo que “toda la ventaja”, destaca Balañá, “está en el software precisamente. Es donde está la diferencia”. El directivo de NetApp tiene en cuenta tanto el software para “la gestión” como “cómo está hecha la arquitectura de la plataforma”.
“Agilidad es la propiedad fundamental” que aporta la infraestructura definida por software, de acuerdo con Manuel Díaz. Esto es, “la capacidad de tener lo que quieres cuando quieres y de la forma que quieres”, así como la “capacidad de escalar”, “de hacernos la vida a la gente de IT mucho más fácil de lo que era hasta ahora”. Miguel Ángel Serrano elige “la adaptabilidad” como punto clave. “El software es mucho más adaptable que el hardware. El hardware es lo que es, es hierro” y “sin él no puedes hacer nada, pero el software lo que te da es la capacidad de adaptarte”, distingue. “Con una infraestructura dirigida por software esto es mucho más sencillo. Directamente movemos lo que haga falta, reprogramamos lo que necesitemos” y ya está “la parte de la infraestructura lista para que el servicio empiece a correr sobre lo que estamos administrando”.
Todo se reduce a un trabajo lo más eficiente posible, donde entran en juego las plataformas de datos. ¿Qué importancia tienen estas plataformas al administrar y proteger la información? “El dato tiene que estar protegido en todo momento y las soluciones de hiperconvergencia de cómputo lo protegen perfectamente”, asegura Serrano. El Sales Engineer de Rubrik valora que “son capaces de hacer réplicas” y “de montar sistemas de disaster recovery”. Y manifiesta que “el dato siempre” acaba “en un repositorio de backup”. Para Alberto Carrillo, “la seguridad es clave” y es “una de las cosas que te permite el tener automatizada la explotación de la infraestructura y automatizado todo el ciclo de vida”. Porque “tienes un sustrato en el que puedes implementar políticas”.
En cuanto a las innovaciones que se están introduciendo, una de ellas es NVMe. En base a la definición de Jaime Balañá “es un paso más que todo el mundo va a adoptar si no lo ha hecho ya. Lo que te permite NVMe es eliminar uno de los típicos cuellos de botella” para “el acceso a los datos que estaban almacenados en un disco”. Y es que “hasta hace nada”, rememora el Technical Director de NetApp, se usaba “un protocolo que tenía aproximadamente 30 años de antigüedad”. Con NVMe como “evolución natural” se consigue “un rendimiento muchísimo más alto, lo cual al final es un beneficio para el cliente, para que pueda hacer más cosas con la misma infraestructura”. Balañá dictamina que “al final la hiperconvergencia va de eso: de hacer más con menos o con menos problema”.
Alberto Carrillo subraya que esta tecnología “es infraestructura, es hierro… pero”, sin embargo “es disruptiva”. Es algo así “como una GPU de almacenamiento”, define. De modo similar, Manuel Díaz menciona que “la infraestructura física es la misma para hiperconvergencia que para servidores tradicionales” y resuelve que el invento de NVMe resuelve la problemática de la velocidad en almacenamiento. “Eso, asociado a los costes que tiene ya, lo hace totalmente factible para la tecnología actual y para tenerlo en el mercado. Hace aproximadamente un año eso era inviable”, declara el ejecutivo de Lenovo, “a día de hoy es una opción”. Eso sí, una opción “cara” todavía para el backup, según Miguel Ángel Serrano.
Todo lo que se viene
Si las previsiones se cumplen, la hiperconvergencia seguirá mejorando sus números en 2019. ¿Qué cabe esperar? “La adopción de las nuevas tecnologías como NVMe es una de las cosas que esperamos que se haga más común”, enlaza Jaime Balañá, que se acuerda también de “storage-class memory, que es la nueva tecnología de discos basados en memoria no volátil” con la que se reducirá “todavía más la latencia de acceso a esos datos”. Lo que todavía tiene que venir es la “integración con otro tipo de software o de tecnologías que están siendo muy comunes en el entorno empresarial”, caso de los “contenedores”, “hipervisores nuevos” y “las cloud públicas”. Alberto Carrillo es otro que reclama para la hiperconvergencia que se parta de “los servicios que ya tenemos” para “complementarlos con servicios adicionales”.
Manuel Díaz equipara la situación de la hiperconvergencia “con lo que pasó con la virtualización” ahora que “prácticamente no queda casi nada de x86 no virtualizado”. Y Miguel Ángel Serrano también apuesta por “los entornos hiperconvergentes” como “el futuro” o “más bien el presente”, como “la base prácticamente de todo durante los próximos años”.
Aquí puede ver el evento de nuevo.