El reto de gestionar la información en el mundo del Huge Data

Cada vez hay más datos. Cada minuto del día se suben 48 horas de vídeo a Youtube, Google recibe más de 2 millones de búsquedas y se escriben más de 100.000 tweets. Cada minuto se crean 571 nuevas webs y se envían más de 200 millones de emails. Y si hablamos de Internet de las Cosas, y en breve de las personas, solo en España habrá 59 millones de conexiones M2M en 2019. Estos datos no son solo generados y enviados, sino que son almacenados. Pasamos del Big Data al Huge Data, donde de un archivo se realizan múltiples copias en distintas localizaciones.

Esta ingente cantidad de datos implica una serie de preguntas: cómo manejar tal volumen de información; cómo maximizar el valor de la información de negocio; cómo financiar las inversiones para el despliegue de una infraestructura sólida; cómo combinarlo con aplicaciones corporativas.

Al mismo tiempo, una afluencia cada vez mayor de datos no estructurados (como archivos de imágenes, audio o vídeo) y semi-estructurados (como correos electrónicos y registros) añade otra capa de complejidad a la gestión, sobre todo a la hora de determinar la manera más eficaz y fiable de proteger, organizar, acceder, conservar y destruir toda esta información vital.

Es decir, la necesidad de conservar y retener los datos es cada vez más complicada dado que cada vez se pide más a las organizaciones que retengan datos de una variedad de fuentes, incluyendo emails, documentos y ficheros multimedia, dentro del contexto de negocio apropiado. Por si esto fuera poco, a mayor cantidad de datos más obsoleta queda la tecnología “legacy” de backup, pues las compañías requieren no solamente copias de seguridad rápidas sino recuperaciones instantáneas. Si una copia tarda varias horas en realizarse, cómo puedo estar seguro de que la información crítica estará siempre protegida y disponible.

Esto nos lleva a otra cuestión a tener en cuenta que es que a la hora de almacenar la información obviamente no se le puede dar el mismo tratamiento a los datos críticos que a los datos que no son de vital importancia. Los datos merecen distintos niveles de protección y de retención. Una vez que sabemos dónde está la información y en qué consiste esta información, es importante analizarla para saber el nivel de protección y de retención que merece. Y, por supuesto, garantizar su acceso inmediato desde cualquier dispositivo.

César Cid es regional de preventa para el Sur de Europa de CommVault

Como respuesta, algunas organizaciones están implementando y manteniendo las funciones de backup y archivado como silos independientes dentro de una estrategia de gestión de la información de carácter global. Esto conlleva distintos problemas, como la replicación innecesaria de la información. Para qué necesito que un archivo esté almacenado 5, 10 o 20 veces. Esto solo complica la gestión de la información. Además, los principales problemas de la estrategia basada en silos radican en el incremento de costes y en la imposibilidad de cumplir con los requisitos legales para encontrar y conservar cierta clase de datos. Trabajar en silos te da una visión única de una sola parte del negocio, pero no ofrece una versión holística de lo que ocurre en la empresa. Sin duda, no es la solución ideal.

Para CommVault, el reto está en optimizar el número de copias de la información y en iluminar los “datos oscuros”, toda esa información que no analizamos y conocemos y de la que podemos extraer información para obtener valor. Para ello utilizamos una tecnología avanzada – como la tecnología de snapshots para conseguir restauraciones instantáneas- y un repositorio único para almacenar la información y evitar su innecesaria duplicación.

En un mundo donde los datos se acumulan de forma masiva, tanto a nivel personal como a nivel empresarial, y donde necesitamos disponibilidad inmediata de esos datos, que pueden estar guardados en cualquier sitio, la posibilidad de reducir la complejidad a la hora de gestionar recursos de almacenamiento y dar visibilidad sobre los mismos es clave, especialmente cuando llega el momento de la toma de decisiones, tanto de retención de información como de adquisición de nuevo almacenamiento.

Como conclusión, podemos decir que encontrar una solución de protección eficaz para los datos distribuidos se convierte en apremiante para las organizaciones. Las empresas necesitan una solución económicamente competitiva, fácil de usar y fiable para proteger y, cuando sea necesario, recuperar y acceder a datos clave para el negocio que han sido creados y almacenados fuera del centro de datos. La respuesta está en afrontar los cambios basándonos en una plataforma única, de forma que se ahorren costes, riesgos y se incrementen los niveles de productividad y competitividad de cualquier organización.

Firma invitada

Nombres destacados del sector TIC opinan sobre las principales tendencias de la industria.

Recent Posts

¿Cómo está impactando la inteligencia artificial en la gestión del retail?

En esta tribuna, Joaquim Borrás, consejero asesor de SISQUAL, explica cómo la inteligencia artificial transforma…

2 días ago

La IA en el lugar de trabajo: lo bueno, lo malo y lo que hay que tener en cuenta

En esta tribuna, David Parry-Jones, Director de Ingresos de DeepL, analiza el impacto de la…

2 semanas ago

Físico vs Digital: la importancia de la prueba de producto en la era de Internet

En esta tribuna, Ignacio Zaera, fundador y CEO de Simpling.pro, explica la importancia del sampling…

2 semanas ago

Datos de calidad: El secreto para evitar errores en la Inteligencia Artificial

Sergio Rodríguez de Guzmán, CTO de PUE, explica en esta tribuna cómo la calidad de…

1 mes ago

Crear una cultura de seguridad proactiva es crucial a medida que avanza la IA generativa

En esta tribuna, Mark Ryland, Director de Seguridad de Amazon, explica la importancia de una…

1 mes ago