En el mundo de las TIC existe cierta creencia de que los fabricantes generan continuamente nuevos términos que prometen resolver los problemas de la empresa pero, en realidad, pocas veces aportan grandes soluciones. Quizá uno de los más oídos hoy es Cloud Computing. De hecho, aunque el término pueda ser considerado ya como pasado de moda, la esencia está en nuestros procesos y costumbres de trabajo… y va a quedarse.
La comparación con los antiguos mainframes tiene razón de ser, porque hay similitudes. Sin embargo, las ventajas que la unificación de las TIC aporta a las empresas y a los usuarios como evolución natural en la forma de trabajar se considerarán pronto como la única manera lógica de ejecutar la inmensa mayoría de proyectos que precisan infraestructuras de computación y comunicaciones.
El primer paso quizá haya sido el traslado de los servidores y equipos asociados desde las instalaciones de la empresa al centro de datos. Es la ‘colocation’, donde el ahorro aparece gracias a las economías de escala para los sistemas comunes. En el siguiente paso de la evolución natural del ciclo de vida de las aplicaciones, a veces se nos obliga a mantener muchas de ellas en servidores que consumen más recursos que las máquinas más recientes. Algo que puede ser insostenible, porque se requiere mucho espacio y recursos, de manera que a veces es complicado saber qué aplicación se ejecuta en cada sistema e incluso a veces se recurre a apagar los servidores más antiguos para ver quien protesta. Cuando se subcontrata el servicio, este problema se traspasa al proveedor.
Para los operadores y proveedores de servicios, la optimización continua de recursos de red forma parte del negocio natural. En este caso, la optimización ha de incluir además de la infraestructura eléctrica y de seguridad, el almacenamiento, la capacidad de proceso, la memoria y las comunicaciones. Los centros de datos se convierten en fábricas de aplicaciones y, aunque se pueden diseñar a gran escala, en la situación actual no resulta económicamente viable tenerlos vacíos, por lo que deben estar concebidos para crecer con un coste sostenible.
En el propio concepto ‘cloud’ aparecen ‘nubes’ que, en realidad, no son tales. Los servicios se crean como soluciones a problemas reales, utilizando componentes estandarizados, tales como redes de almacenamiento, sistemas de seguridad IDS/IPS, balanceadores, servidores y equipamiento de diversa procedencia que han de funcionar como un todo mediante la integración de los componentes, muchas aplicaciones de software y, cómo no, el personal entrenado para estas tareas. Las fábricas de la era de la información.
La comercialización a gran escala de este tipo de servicios necesita optimizar cada componente. En este sentido, tan importante es la disponibilidad en el acceso a la información (las comunicaciones) como que las aplicaciones y el soporte funcionen adecuadamente.
Al utilizar el concepto de ‘nube’ quizá se está pensando en soluciones a gran escala para miles o incluso millones de usuarios que deben adaptarse a la plataforma, como cuando instalamos programas en nuestros ordenadores. Sin embargo, muchas aplicaciones de empresa necesitan realmente lo contrario: flexibilidad para cumplir con los requerimientos para los que han sido diseñadas. Por eso surge el concepto de ‘private cloud’, que aprovecha la tecnología de ‘cloud computing’ para crear entornos a medida de la empresa, compartiendo los recursos que se definen en el diseño de la solución, pero dedicando a quien corresponda aquellos que no se necesita o se desea compartir. A veces no existe un mercado para estas aplicaciones masivas en la nube, pero sí la necesidad y por eso muchas grandes ‘nubes’ están formadas por ‘nubes’ más pequeñas, muy juntas.
En esencia, se trata de hacer que la arquitectura de los centros de datos sea lo más plana posible, comenzando por las comunicaciones, y que el almacenamiento pueda evolucionar a demanda. Una red compleja y mal administrada es el mayor cuello de botella para obtener rendimiento en el acceso a la información.
En esta tribuna, Joaquim Borrás, consejero asesor de SISQUAL, explica cómo la inteligencia artificial transforma…
En esta tribuna, Adam Levine, CCO de Data4 Group, explica los retos para que los…
En esta tribuna, David Parry-Jones, Director de Ingresos de DeepL, analiza el impacto de la…
En esta tribuna, Ignacio Zaera, fundador y CEO de Simpling.pro, explica la importancia del sampling…
Sergio Rodríguez de Guzmán, CTO de PUE, explica en esta tribuna cómo la calidad de…
En esta tribuna, Mark Ryland, Director de Seguridad de Amazon, explica la importancia de una…