La virtualización y el cloud han cambiado el modelo de negocio. La virtualización tiene el potencial de exprimir al máximo las capacidades de dispositivos de hardware. Cuando hablamos de virtualizar, hablamos de muchos tipos de prácticas: servidores, las funciones de red, el almacenamiento, o las operaciones de entrada y salida para acceder más fácilmente a los datos.
NetmediaEurope se ha reunido con José Morales, responsable técnico de PureStorage, Alexis de Pablo, ingeniero preventa de Veeam Software, Javier Martínez, director técnico de NetApp Iberia y Simón Viñals, director de tecnología de Intel, para analizar el mercado de la virtualización, sus ventajas, sus retos y lo que está por venir.
De acuerdo con José Morales, esta es la base que nos permite aprovechar una infraestructura de una forma mucho más eficiente. Con el crecimiento de los dispositivos en el mercado, estamos desaprovechando la infraestructura. Pero la virtualización nos permite extraer mucho más de la potencia de estos, a la vez que se ahorran costes y permite establecer una base a través de la cual escalar de forma exponencial en el uso de infraestructura.
Por su parte, añade Alexis de Pablo que en el tema económico, favorece mucho si se hace un especial hincapié en aprovechar todos los recursos de tecnología. La inversión está limitada y gracias a la virtualización se pueden poner en marcha nuevos aplicativos, además de poder pueden ofrecer soluciones diferenciadas para tener ventaja sobre los competidores.
Javier Martínez asegura que otro aspecto clave es el tema de la movilidad, ya que la virtualizacion es la que permite a los diferentes entornos contar con una mayor movilidad para adaptarse a los entornos actuales.
Para Simón Vilñals, el grado de nivel tecnológico es lo que permite a una empresa consolidarse. Explica el directivo de Intel que la virtualización y la automatización han traído agilidad porque “ahora con la orquestación conseguimos más independencia y flexibilidad”.
De acuerdo con Alexis de Pablo, ingeniero preventa de Veeam Software, “aunque en el pasado hubo reticencia a virtualizar, ahora se virtualiza casi todo lo que es posible”. Ha pasado a ser la primera opción para poner en marcha cualquier proyecto hoy en día. Y Javier Martínez le apoya en esta declaración, explicando que “estamos viendo como hace unos pocos años, virtualizar era algo puntual y ahora las organizaciones con las que trabajamos quieren virtualizar todo y, si no lo hacen, casi que deben justificar el por qué”. Desde NetApp Iberia, dice el director técnico, “ponemos mucho poco en la virtualización del servicio de almacenamiento”.
Simón Viñals añade que “el último paso fue la virtualizacion de los entornos de misión, y ahora casi todos están también virtualizados y también la red, el almacenamiento….” .
En cuanto a José Morales, asegura que “se ha perdido el miedo total a la virtualizacion incluso hablando de entornos crítico”. Considera el directivo que “el tema de las eficiencias y el rendimiento que adquieren estas aplicaciones es el factor que limitaba esta adopción, mientras que ahora, con la tecnología flash se pueden habilitar diversas tecnologías en entornos virtualizados”. Además, también se ha comprobado que se puede producir un impacto “sobre los centros de datos, según la forma que usamos la infraestructura, aliviando la memoria física y, por ello es que todos los entornos se aceleran a la virtualizacion”.
Explica Martínez que las empresas grandes fueron más lentas con los entornos críticos pero ahora ya lo han comenzado a adoptar de forma masiva, mientras que a “las empresas pequeñas se les ha facilitado la tecnología de cloud y de virtualizacion para que también pudieran entrar en el juego”.
Desde Intel, Simón Viñals recuerda que “las empresa pequeñas sin infraestructura propia también tienen muchas soluciones a la que acceder con precios del estilo de facturación por uso, lo que ha permitido que el mercado se haga más competitivo, dando la oportunidad a las pequeñas empresas a competir en un terreno donde se pueden manejar las grandes firmas.
Jose Morales añade que se está viendo una “necesidad de impactar sobre el coste de interés y, para ello, las empresas que están desarrollando nuevas soluciones, incluso se virtualizan los escritorios, y también las pymes”.
Finalmente Alexis de Pablo explica que hay muchas soluciones dirigidas a las pymes y no hay que olvidar que a ellas les ayuda a ser la virtualización para ser más competitivas en el mercado.
Jose morales explica que la problemática que tiene la virtualizacion es que es “como una batidora de datos”. Dice que “entran todo tipo de aplicaciones y la estructura lo transforma para poder escribir el dato más rápido”. Todos los participantes en la mesa redonda creen que “en los últimos 20 años no ha evolucionado la infraestructura que se usa a este respecto, lo que genera barreras frente al gran crecimiento de las capacidades de cómputo”. Y explica que en Pure Storage “hemos desarrollado un producto con tecnología flash para mitigar los problemas”.
Por su parte, Alexis de Pablo dice que “hay un cambio de modelo, que pasa de compartir infraestructura entre múltiples servicios a hacer aprovisionamiento de una máquina virtual para cada capa del servicio, lo que ha hecho crecer el número de elementos que intervienen en la virtualizacion y eso hace necesario disponer de herramientas especificas para manejar todo el entorno virtualizado y que puedan arrojar información apara anticiparnos a cualquier cuello de botella”.
Javier Martínez insiste en que el “flash ha cambiado la perspectiva de un mercado que llevaba 20 años sin grandes cambios. Se necesita ser capaces de priorizar unas capas de trabajo con respecto a otras, puesto que tenemos, como decíamos, un hardware compartido y hay que acotar el rendimiento a los niveles necesarios”.
Por su parte, Simon Viñals recuerda que “siguiendo la ley de Moore que lleva 45 años cumpliéndose y que se espera que siga, de acuerdo con la virtualización, no hay que olvidar que se han ido integrando elementos en el hardware para mejorar el rendimiento” y cree que una cuestión muy importante será conseguir más herramientas inteligentes para mejorar este rendimiento. Dice Viñals que “si hay tareas que se pueden delegar a las tarjetas de red, debería hacerse, puesto que estas pueden filtrar paquetes, comprimir y descomprimir. Las tareas de cómputo deberían hacer en la CPU para ayudar al rendimiento” y es que, “una asignación inteligente de los recursos ayuda al rendimiento”.
Javier Martínez explica que “es indudable que lo acerca al all flash data center y los analistas creen que acabaremos polarizados”, mientras que los discos tradicionales “seguirán para los entonos de mucha capacidad, donde no prime la velocidad, sino la posibilidad de mantener la información guardada”. Añade que desde NetApp se piensa en la coexistencia de los dos, “pero si necesitamos rendimiento, entonces el flash es mejor”.
Simón Viñals también opina que si los elementos hardware presentan requisitos de calidad, seguirán siendo necesarios en el mercado, ya que darán buenos resultados al cliente.
Alexis de Pablo también dice que “depende del tipo de aplicaciones no siempre se necesita el flash”, por lo que los discos duros seguirán siendo útiles. Explica de Pablo que el “Flash aporta mucho: disponer de datos de forma rápida y es más seguro, pero no tienen por qué hacer desparecer otras tecnologías de almacenamiento”.
Contar con los socios adecuados es imprescindible, dice Simón Viñals, “para agregar la experiencia de estos y poder sacar el partido al hardware”. Y reitera: “al escoger una solución, hay que escoger al partners adecuados”.
Por su parte, José Morales añade que “si es despliegue no es bueno, está claro que tampoco funcionará bien la solución”. Y menciona que se calcula que el impacto del rendimiento puede llegar a ser de entre el 60y 80% según estudios según el despliegue de las soluciones.
Alexis de Pablo ve que el nivel de incidencias ha caído gracias a la mejora de la tecnología, mientras que Javier Martínez dice una cosa muy importante y es que “muchas empresas obvian la necesidad que hay de contar con técnicos y personal que trabaje en la empresa y sea experto en las tecnologias que maneja. Hay que tener muy en cuenta el factor humano.
Alexis de Pablo recuerda que el canal tiene una oportunidad de negocio muy interesante y explica que desde Veeam, “queremos proveer al canal de las herramientas necesarias para que las empresas socias puedan implementar las novedades y conectar con sus clientes y ayudarles a hacer uso de la tecnologia del cloud de una forma asequible”.
Javier Martínez dice que en NetApp creemos que “el canal debe tener en cuenta los productos que vende y darse cuenta de que ahora se comercializa menos hardware, y más herramientas de virtualización”.
Para terminar, Simón Viñals afirma que es “importante que el canal esté bien formado y tenga buen conocimiento de las herramientas y de la problemática del cliente y pueda aportar un valor añadido a las ventas, que atraigan así a sus clientes”.
El evento espera reunir a 17.000 directivos, que podrán escuchar a medio centenar expertos en…
Como resultado de esta operación, ampliará sus servicios en el "bronze layer" del ciclo de…
Durante el segundo trimestre de su año fiscal 2025 acumuló 1.660 millones de dólares, la…
También incluye un SDK open source para potencia el desarrollo de aplicaciones y agentes, especialmente…
Los ciberdelincuentes recurren a ofertas que no son ciertas, tarjetas regalo y sorteos para robar…
Entre sus características incluye una pantalla de ultra alta resolución 1.5K y lente dinámica biónica.