La pasada década fuimos testigos de una recesión sin precedentes por su gravedad y por su alcance mundial. Al mismo tiempo, la gran revolución de la información ha avanzado sin piedad, trayendo consigo nuevos retos para las empresas de todo el mundo.
El principal reto fue la migración masiva al cloud computing. Empresas de todos los tamaños han empezado a trasladar sus servicios de TI a la nube, lo que ha aumentado la presión sobre los centros de datos. A esto se ha sumado la avalancha de datos que se ha producido al aumentar el volumen de información digital creada, utilizada y almacenada en las empresas. Todo ello ha originado una tormenta perfecta en cuyo epicentro se encuentra el data center.
Cuanto mayor se vuelve la dependencia de las empresas de sus centros de datos, mayores son sus demandas y necesidades. A medida que aumentan los documentos y datos sensibles almacenados, así como el número de necesidades informáticas diarias que se confían a la nube, se incrementa también la presión sobre la infraestructura de red del centro de datos. Esta situación plantea un doble dilema: las empresas necesitan disminuir gastos y por eso confían en que el cloud computing les permitirá ahorrar costes, pero las redes tradicionales fueron diseñadas en una era en la que el volumen de datos era menor, y ahora no están preparadas para tanta presión.
La virtualización ha sido acogida como la respuesta a este doble problema, y con razón. La iniciativa de utilizar el hardware al máximo mediante la creación de “máquinas virtuales” ha resuelto de un plumazo muchos de los problemas que conlleva el auge de los datos y del cloud computing, en gran parte gracias a que acaba con la infrautilización de servidores que impedía la utilización eficiente del espacio y conllevaba altos costes.
Las empresas ya se han dado cuenta de la gran importancia de la virtualización por ser el motor del cloud computing y por permitir a los centros de datos ofrecer una amplia gama de servicios de almacenamiento, infraestructura y software a bajo coste. Sin embargo, no es la panacea para nuestra adicción a los datos y al cloud computing, algo que no se tiene muy en cuenta.
La tecnología de red tradicional -los switches, el cableado, los routers y otros elementos que conforman la infraestructura del centro de datos- no puede afrontar el creciente volumen de tráfico y la gran variedad de aplicaciones que manejan los centros de datos virtualizados.
La clave para diseñar con éxito un centro de datos virtualizado no radica, por tanto, en la decisión por el hypervisor o la tecnología de virtualización, sino en la modernización de la infraestructura que conforma la red, especialmente si esa infraestructura está basada en Ethernet tradicional.
Durante décadas, Ethernet ha sido una base fiable para las redes TI y ha ido evolucionando a medida que iban naciendo nuevos tipos de arquitecturas. La última evolución, Ethernet fabric, es un tecnología de red revolucionaria perfecta a la hora de responder a las demandas de los centros de datos de próxima generación basados en cloud y que permitirá compensar las deficiencias de la tecnología de Ethernet tradicionales.
Las redes clásicas de Ethernet son jerárquicas con tres o más niveles. El tráfico tiene que moverse de arriba a abajo en un árbol lógico para fluir entre los servidores rack, añadiendo latencia y creando cierta congestión entre los switches de la red. Es más, las redes de Ethernet tradicionales requieren gestión de switches, según la que cada switch y puerto tienen que configurarse de forma individual; a medida que se van añadiendo más servidores, se incrementa el número de switches. Una de las principales limitaciones de este modelo es que se basa en STP (Spanning Tree Protocol), que impide la formación de bucles en la red permitiendo un único camino activo entre dos switches cualesquiera. Sin embargo, esto limita la cantidad de ancho de banda en una sola conexión, algo inadecuado para los nuevos patrones de tráfico que requieren los entornos virtualizados.
En cambio, la tecnología Ethernet Fabric crea una red plana con múltiples caminos en la que cada switch conoce todos los demás, cada uno de estos caminos está disponible y el tráfico viaja automáticamente por el enlace más corto. Con esto se garantiza una máxima disponibilidad de ancho de banda, un menor consumo energético, la utilización de menos adaptadores y switches, así como una distribución de paquetes de datos más efectiva. En resumen, los Ethernet fabrics aportan un enfoque más inteligente y global a la infraestructura de red.
Ethernet fabric es la condición “sine qua non” para desplegar con éxito un entorno cloud, pero no es una varita mágica para la implementación de un entorno virtualizado. Esto sólo puede lograrse trabajando con los fabricantes para desplegar infraestructuras de centros de datos dinámicas que satisfagan sus necesidades específicas, y que se fundamenten en la mejor tecnología de Ethernet Fabric.
Dell pretende que "las organizaciones puedan utilizar continuamente los últimos avances de IA en el…
Introduce cinco nuevas soluciones HPE Cray con arquitectura de refrigeración líquida directa y dos servidores…
Las entradas para acudir a este parque temático que defiende un turismo sostenible saldrán a…
Amplía la disponibilidad de actualizaciones y parches críticos para ambos sistemas operativo hasta agosto de…
Con esta actualización acelera las cargas de trabajo de Kubernetes para máquinas virtuales, bases de…
Su cometido pasa por consolidar y ampliar el ecosistema industrial en España y Portugal.