Experiencia de datos moderna (o cómo reducir la complejidad y el gasto en los entornos multicloud)

Ante la avalancha de datos que generan las organizaciones y su valor clave para el devenir del negocio, los departamentos de TI no se pueden permitir caer en errores de gestión. Estos datos deben estar siempre disponibles, de manera sencilla y sin demoras, incluso bajo el modelo de nube híbrida y multicloud.

Para analizar la experiencia de datos moderna,  Silicon España ha reunido de forma virtual a Francisco Cosín, consultor preventa de IaaS365 y Juan Miguel Haddad, responsable de canal de Pure Storage con los especialistas en TI Eduardo Gulias, Emilio García, Pedro Galdón, Alberto López, Emilio Pericet, Ricardo Galli y Jonás Delgado.

Los nueve comparten sus impresiones en el encuentro digital “Experiencia de datos moderna (o cómo reducir la complejidad y el gasto en los entornos multicloud)”, que analiza la importancia de la disponibilidad y la orquestación de la información en un mundo cada vez más distribuido y atomizado.

Los desafíos del dato

Para gestionar “la ingente explosión de datos” que nos rodea “cada empresa tiene su filosofía”, declara Francisco Cosín, consultor preventa de IaaS36. Hay empresas que prefieren dejar la gobernanza de datos en local, otras que apuestan por la hibridación y algunas que nacen ya el mundo cloud. Lo ideal es que “el driver económico y el driver tecnológico se den la mano y que sea la decisión del cliente”. Pure Storage, por ejemplo, nace “basada 100 % en tecnología flash”, tal y como destaca Juan Miguel Haddad, liberándose de “las ataduras que hay en el storage tradicional” en disco.

Haddad defiende que todos los elementos del centro de datos deben tener “estructura en el dato”. Lo principal aquí es que “la velocidad de acceso al dato importa, no sólo en cuanto a velocidad de los sistemas”, sino para “interpretar la información”. A esto se le añade “la simplicidad de la gestión de esa infraestructura de almacenamiento”, la “capacidad tecnológica de gestionar los datos on-premise, con cloud y con nuestros partners” y “la parte comercial” de la suscripción.

Jonás Delgado, especialista en IT cloud, opina que “la ventaja de trabajar con entornos de alta disponibilidad es que el tiempo de recuperación del servicio es directamente proporcional a la importancia y criticidad del servicio, para mantener la continuidad del negocio”. En este sentido, siempre habría “un margen de actuación”. La dificultad de todo esto radica, según Delgado, en la “tolerancia a fallos”. ¿Y dónde está la solución? En aplicar “tecnologías de vanguardia relacionadas con el mundo de la contenerización, de las infraestructuras inmutables y, a ser posible, impulsando sistemas stateless”.

Emilio García, director de tecnología y sistemas en Cuerva, cree que uno de los retos pasa por la identificación de “los sistemas que son críticos y tienen que estar en alta disponibilidad”, lo que a su vez “condiciona mucho el coste”, otra de las claves. También es conveniente no improvisar y tener “muy probados” y “al día” los planes de recuperación ante desastres, enmarcándolos dentro del plan de continuidad.

Para Pedro Galdón, CIO y CTO en EMASA, también hay que “intentar tener una alta disponibilidad en aquello que es realmente relevante para el negocio”, ya que “el coste de tener alta disponibilidad no es bajo y hay que discriminar bien qué tipo de datos” incluir. “También es bastante importante que esa alta disponibilidad sea lo más automatizada posible”, sin depender de determinadas personas. “E intentar minimizar los tiempos de recuperación” si ocurre un desastre

Eduardo Gulias, CTO en Packlink, coincide con sus colegas en que primero hay que definir “cuál es nuestro Tier 1” y, a partir de ahí, trabajar en la alta disponibilidad. Además, recomienda asumir que va a haber fallos “y estar preparados para remediar y aprender, para que la siguiente vez el fallo sea menor”. Las empresas pueden buscar “una degradación efectiva” en el que el sistema no se llega a caer.

En el caso de Ricardo Galli, jefe de arquitectura de datos, innovación y servicios de infraestructura en WebBeds, lo más duro de trabajar con la alta disponibilidad y tareas asociadas a Big Data o la habilitación de reporting tiene que ver con “data governance y validación de los datos”. Galli cree que “el problema son los datos, no la tecnología”, sobre todo ahora que existen tantas ofertas de cloud computing.

Con la crisis sanitaria del coronavirus, “todos los negocios están como locos, queriendo sacar nuevos modelos, queriendo ser los primeros, cambiando incluso la forma de operar”, observa Emilio Pericet, CTO en Insud Pharma, “y esas prisas son malas consejeras”. Para su compañía, los dos grandes retos en almacenamiento son asegurar que “la producción nunca pare” y cumplir con las normas de “un sector hiperregulado”. Una buena opción es pensar en entornos híbridos, a medio camino entre el on-premise y la nube.

La nube aporta disponibilidad y habilita la “deslocalización para dar cobertura a todos los países” en los que puede operar una compañía, tal y como destaca Alberto López, director de TI en Solaria Energía y Medio Ambiente. “El reto no es la tecnología” en sí, porque existe y se puede conseguir, “la piedra angular es eficientar toda esta alta disponibilidad”. Sin límites económicos, cualquier petición de los diferentes departamentos iría en alta disponibilidad. Pero en el mundo actual hay que analizar qué tiene cada uno, qué es lo que quiere y “cuál es la interrupción que pueden aceptar”.

¿Cómo reducir la complejidad y los costes?

De cara a reducir la complejidad en entornos multicloud, Emilio García, aconseja orientarse a modelos similares a Kubernetes y “gestionar las distintas nubes de forma transparente al usuario”. Pero matiza que un entorno múltiple es “para compañías que realmente lo necesiten” y no una solución universal. Mientras, Ricardo Galli, apunta que “tecnológicamente, el tema de almacenamiento todas las clouds lo tienen más o menos solucionado”, con “los mismos servicios” de “almacenamiento masivo, altamente replicado”.

Pedro Galdón traza, como una evolución común “pasar de un entorno completamente on-premise a ir adoptando estrategias de cloud”, para luego “pasar a un entorno que previsiblemente va a ser híbrido” y “llegar a un estado de multicloud”. Esta transición puede ir acompañada de estrategias a nivel de DevOps y contenedores pero, sobre todo, debe buscar “un cambio cultural dentro de la organización”.

Jonás Delgado, considera que la situación varía según el tipo de negocio y sus objetivos finales. “Por lo tanto, uno de los primeros puntos que hay que tener en cuenta es conocer bien el negocio y cuáles son las necesidades, para conocer los procesos de negocio y poder así normalizar los procesos tecnológicos”.

“Hoy en día, unos aliados tecnológicos para poder reducir la complejidad”, o para impulsar el ahorro de costes, son los “contenedores”, apunta Delgado. También servirán las “tecnologías de hiperconvergencia”, la automatización y las máquinas virtuales orientadas a “infraestructuras como servicio”, con alta tolerancia a fallos. “Si conseguimos esa capa agnóstica de desarrollo de nuestra solución, podemos aprovechar este tipo de ventajas” que ofrecen “los cloud providers”.

“Los diferentes proveedores están muy enfocados en proveer ellos mismos las mejores salvaguardas”, como “arrays replicados”, para que no haya problemas, conforme recuerda Eduardo Gulias. “La complejidad de irte a un multicloud parar paliar una posible caída”, aventura este experto, o para evitar “perder acceso a esos datos”, es “bastante grande. Tiene que ser muy, muy, crítico para asumir esa complejidad, que al final se traduce en costes operativos”.

Gulias apunta que “la práctica hace al maestro” y explica que hay que someter a pruebas los sistemas y los planes de continuidad. “Tu backup no es un backup hasta que no has probado a recuperarlo”, razona, lo que significa que, si se han simulado situaciones, “mejor te va a ir en el caso de que suceda” de verdad.

Últimas tendencias

Los entornos actuales están marcados por la tendencia del teletrabajo, donde no se puede “hacer mucho en cuanto a las conectividades de la gente”, pero sí en lo que hay “por detrás en el procesamiento”, apunta Alberto López. Esto es, en “la agilidad a la hora de tratar datos en remoto” y “la disponibilidad de los servicios”. En este punto, disponer de tecnología flash elimina “uno de los cuellos de botella que suele haber cuando tienes la información centralizada” y supone “una mejora sustancial”.

Emilio Pericet califica de “totalmente vital” la implementación de arquitectura flash para los procesos de digitalización, en los que cada vez hay más usuarios conectados. “Al igual que hablamos de los cloud, este tipo de tecnologías es necesario para que tu negocio siga creciendo al ritmo que el mundo lo está pidiendo”, dice. Aunque la pandemia impulsa el cambio, si no se potencia también la parte de la tecnología, “el negocio no puede acelerar”.

Todas las compañías saben que tienen datos pero no saben qué datos tienen, cómo de buenos son y cómo explotarlos”, señala Pericet. Y Pedro Galdón está de acuerdo: “la gente no conoce la existencia del dato, no conoce para qué sirve y además no sabe cómo explotarlo”. Entonces lo que hay que hacer es “evitar por un lado los silos de información” y, por otro “conseguir una cultura del dato corporativa” que lo transforme “en información útil para la toma de decisiones”.

Francisco Cosín ratifica que hay que ir “añadiendo funcionalidades que evolucionen ese equipamiento a la vez que tu empresa evoluciona”. El directivo cree que la virtualización y la analítica de datos “pueden darse la mano perfectamente”, pero mejor con “una capa de gestión” que permita “flexibilidad” y “simplicidad”. Y también para dar vida a “equipos multidisciplinares”.

Emilio García propone como estrategia “disponibilizar el dato para los usuarios”, de modo que “puedan consumir el dato sin pasar por IT”. Esto, apoyado por el gobierno de la información y mayor formación. Mientras tanto, Jonás Delgado anima a tener en cuenta ciertas modalidades de gestión, “como pueden ser la gestión de datos maestros, la administración de los datos, la calidad de los datos, la seguridad”, incluyendo “la confidencialidad, la integridad y la disponibilidad del dato”, la “gobernanza” o “el propio almacenamiento”.

Preparación ante ciberataques

¿Están las infraestructuras actuales preparadas para los ciberataques? Ricardo Galli cree que, en especial, hay que tener cuidado con “los datos copiados en cuentas diferentes, que es el primer vector de ataque masivo que suele haber en el cloud”. Para combatir problemas como el ransomware, Emilio García aconseja instalar sistemas capaces de “detectar comportamientos anómalos”.

“Todos sabemos que el punto débil de la seguridad siempre es el usuario”, apunta García, aunque “tampoco podemos hacer copias de seguridad de todas las máquinas de todo el mundo, porque sería inviable”. En cualquier caso, “la ciberseguridad es una inversión, no es un coste, ni algo que sólo deba preocupar a la gente de IT”. Es más bien “un tema estratégico de compañía”.

“No sólo hay que hablar de tecnología, de procedimientos, de política, de concienciación… esto es un tema de cultura”, afirma Emilio Pericet. Tanto CIOs como CTOs deberían tener una estrategia preparada “para conseguir nuestros objetivos y estar a salvo un día más”, porque “cada día es una pequeña victoria”.

Jonás Delgado subraya la importancia de “la concienciación”: “podemos poner todas las medidas”, dice, “pero de nada sirve si, al final, el usuario entrega su usuario y contraseña a otra persona”. Una contramedida es “la prevención” en forma de “buenas prácticas” que sirvan tanto para proteger la información corporativa como a las personas.

“Hay que volver un poco a los fundamentos de hace años”, piensa Pedro Galdón: “gestionar muy bien los privilegios para evitar que cualquier incidente tenga una repercusión mayor de la que debería”, por ejemplo, con “copias offline”. Pero “todo lo que echemos ahí de inversión y de recursos es poco si no tenemos a los usuarios bien formados” a base, “incluso, de ataques preparados” para que vean “qué podría haber llegado a pasar si el ataque hubiera sido real”.

Galdón observa que en estos momentos “están las empresas que ya han sido atacadas y están las que todavía no lo saben”. Por último, Alberto López determina que “vulnerabilidades desconocidas va a haber siempre”, pero lo cierto es que “poniendo las medidas adecuadas podemos mitigar” el riesgo.

Brand Discovery

Recent Posts

La ciberseguridad del IoT crecerá un 120% en el próximo lustro

El internet de las cosas (IoT) trae muchas ventajas, pero también comporta nuevos riesgos. El…

12 horas ago

Bitdefender lanza un programa de garantía contra violaciones de seguridad

Ofrece hasta 1 millón de dólares de compensación económica en caso de incidente, con la…

1 día ago

Cloud Expo evoluciona a Cloud & AI Infrastructure

Este cambio refleja los avances que se producen a nivel de infraestructura TI y el…

1 día ago

DES2025 se centrará en la IA y ofrecerá una zona de experiencia tecnológica

El evento espera reunir a 17.000 directivos, que podrán escuchar a medio centenar expertos en…

1 día ago

Snowflake llega a un acuerdo con Datavolo para su adquisición

Como resultado de esta operación, ampliará sus servicios en el "bronze layer" del ciclo de…

1 día ago

NetApp aumenta un 6 % sus ingresos trimestrales

Durante el segundo trimestre de su año fiscal 2025 acumuló 1.660 millones de dólares, la…

1 día ago