El Cloud Computing favorece el Edge Computing
El uso de infraestructuras IT híbridas es imparable. La informática en la nube, o Cloud Computing, favorece en muchos casos el proceso de información en el margen o en el borde, lo que se conoce como Edge Computing.
El desarrollo de avanzadas herramientas de gestión de infraestructuras híbridas de IT y de centros de datos, como EcoStruxure IT de Schneider Electric, y de los micro data centers preconfigurados justifica y explica también el auge de Edge Computing, que a su vez se debe al fulgurante desarrollo de los dispositivos IoT.
Los continuos avances que está experimentando la informática en la nube, con plataformas interoperables, escalables y de pago por uso, está animando a un número cada vez mayor de empresas a adoptar entornos IT híbridos, con centros de datos basados en la nube y centros de datos propios situados físicamente en las sedes centrales y regionales y también en entornos que se encuentran en los márgenes de su red IT. Una característica de estos entornos situados en el Edge es que tienen necesidades específicas y locales de proceso y distribución de información, debido al elevado y exponencial despliegue de dispositivos IoT con sensores permanentemente conectados a Internet.
Esta tendencia al entorno híbrido y mucho más distribuido requiere, según Schneider Electric, la adopción de un método sistemático para evaluar la plena disponibilidad, seguridad y uso eficiente de toda la infraestructura de centros de datos. El mayor uso por parte de las empresas del Cloud Computing y de su mayor dependencia de las aplicaciones basadas en la nube les obliga, por otra parte, a replantearse el grado de redundancia de los equipos de la infraestructura física (como los sistemas de alimentación, refrigeración y redes) que permanecen en sus instalaciones.
Diversos análisis realizados por Schneider Electric revelan que, en la mayoría de casos, los centros de datos situados en el Edge cuentan con una menor disponibilidad y, en cambio, tienen mayor importancia para la empresa. Ello hace que se deban replantear el diseño de los sistemas conocidos como Edge Computing. Las mejoras que se deberían realizar afectan a la seguridad física de los micro data centers, a los sistemas de supervisión, prácticas operacionales y supervisión remota, a los sistemas de refrigeración y energía redundantes y al uso de conectividad de red eléctrica dual.
Los microcentros de datos prefabricados crean un entorno seguro y altamente disponible en el Edge. También es necesario un conjunto de buenas prácticas, como el uso de SAIs redundantes, circulación de aire adecuada, conectividad de red dual en entornos críticos y, por encima de todo, un eficaz sistema de supervisión y gestión remota de todos los centros de datos y su funcionamiento en entornos físicos de la propia empresa o en la nube.
La utilización del Cloud Computing o de una nube centralizada es ideal para las aplicaciones donde la latencia (rapidez de respuesta) no es un parámetro crítico, como pueden ser el correo electrónico o las nóminas. Pero al pasar las aplicaciones a la nube, además de la latencia se debe mirar el ancho de banda disponible, el nivel de seguridad existente y otros requisitos. Hay aplicaciones donde se exige un ancho de banda muy elevado, como en el vídeo a demanda. La aproximación del lugar donde se procesan los datos al sitio donde se generan los datos es, en algunos casos, ineludible.
La creciente complejidad y diversidad de las infraestructuras de centros de datos de las empresas, sean físicas o basadas en la nube, supone un importante reto para los profesionales encargados de asegurar su máxima disponibilidad y seguridad. El primer paso para lograrlo es a través de un sistema de gestión basado en la nube que permita visualizar, detectar anomalías y actuar sobre toda la infraestructura IT desde cualquier lugar, como puede ser la arquitectura abierta EcoStruxure IT de Schneider Electric. Otro paso importante es ampliar la infraestructura de Edge Computing mediante micro data centers preconfigurados, porque dispondrán de entrada de los necesarios sistemas de seguridad y disponibilidad.
Las herramientas de gestión y supervisión basadas en la nube se revelan así imprescindibles en el entorno de las infraestructuras híbridas actuales, como también el despliegue de centros de datos físicos y de pequeño tamaño que atiendan necesidades concretas en puntos específicos y que sean inherentemente seguros y sencillos de instalar a medida que crecen las necesidades de la empresa.
Cuando existe la necesidad de compartir y analizar crecientes volúmenes de datos, los micro data centers tienen pleno sentido, porque son esencialmente un centro de datos “plug and play” e ideales para nubes privadas y sistemas de IT convergentes. Si se necesita reducir la latencia, añadir rápidamente capacidad, permitir una gestión segura sobre la marcha o ampliar la fiabilidad a través de sistemas estándares y probados en fábrica, un micro data center es la solución.
Además, se puede minimizar la instalación IT y reducir los costes operacionales, de hasta la mitad en el caso de precio por vatio instalado. Todo esto es posible porque un micro data center es un ordenador completo que incluye la potencia, sistema de refrigeración y herramientas de gestión asociadas que se necesitan, aparte de los sistemas de almacenamiento, proceso de información y redes de transmisión que se requieren para funcionar las aplicaciones.
El concepto de micro data center no es nuevo, porque los fabricantes los han hecho durante años, aunque a su manera y con sistemas propietarios. Lo que ha ocurrido últimamente es que los fabricantes de centros de datos se han asociado con otros proveedores y han creado una arquitectura consistente y estandarizada, que permite que los clientes controlen sus activos críticos y puedan introducir de forma más rápida y económica servicios específicos a la par que reducen riesgos, bajan los costes operativos y aumentan los niveles de servicio.