Cada vez hay más datos. Cada minuto del día se suben 48 horas de vídeo a Youtube, Google recibe más de 2 millones de búsquedas y se escriben más de 100.000 tweets. Cada minuto se crean 571 nuevas webs y se envían más de 200 millones de emails. Y si hablamos de Internet de las Cosas, y en breve de las personas, solo en España habrá 59 millones de conexiones M2M en 2019. Estos datos no son solo generados y enviados, sino que son almacenados. Pasamos del Big Data al Huge Data, donde de un archivo se realizan múltiples copias en distintas localizaciones.
Esta ingente cantidad de datos implica una serie de preguntas: cómo manejar tal volumen de información; cómo maximizar el valor de la información de negocio; cómo financiar las inversiones para el despliegue de una infraestructura sólida; cómo combinarlo con aplicaciones corporativas.
Al mismo tiempo, una afluencia cada vez mayor de datos no estructurados (como archivos de imágenes, audio o vídeo) y semi-estructurados (como correos electrónicos y registros) añade otra capa de complejidad a la gestión, sobre todo a la hora de determinar la manera más eficaz y fiable de proteger, organizar, acceder, conservar y destruir toda esta información vital.
Es decir, la necesidad de conservar y retener los datos es cada vez más complicada dado que cada vez se pide más a las organizaciones que retengan datos de una variedad de fuentes, incluyendo emails, documentos y ficheros multimedia, dentro del contexto de negocio apropiado. Por si esto fuera poco, a mayor cantidad de datos más obsoleta queda la tecnología “legacy” de backup, pues las compañías requieren no solamente copias de seguridad rápidas sino recuperaciones instantáneas. Si una copia tarda varias horas en realizarse, cómo puedo estar seguro de que la información crítica estará siempre protegida y disponible.
Esto nos lleva a otra cuestión a tener en cuenta que es que a la hora de almacenar la información obviamente no se le puede dar el mismo tratamiento a los datos críticos que a los datos que no son de vital importancia. Los datos merecen distintos niveles de protección y de retención. Una vez que sabemos dónde está la información y en qué consiste esta información, es importante analizarla para saber el nivel de protección y de retención que merece. Y, por supuesto, garantizar su acceso inmediato desde cualquier dispositivo.
Como respuesta, algunas organizaciones están implementando y manteniendo las funciones de backup y archivado como silos independientes dentro de una estrategia de gestión de la información de carácter global. Esto conlleva distintos problemas, como la replicación innecesaria de la información. Para qué necesito que un archivo esté almacenado 5, 10 o 20 veces. Esto solo complica la gestión de la información. Además, los principales problemas de la estrategia basada en silos radican en el incremento de costes y en la imposibilidad de cumplir con los requisitos legales para encontrar y conservar cierta clase de datos. Trabajar en silos te da una visión única de una sola parte del negocio, pero no ofrece una versión holística de lo que ocurre en la empresa. Sin duda, no es la solución ideal.
Para CommVault, el reto está en optimizar el número de copias de la información y en iluminar los “datos oscuros”, toda esa información que no analizamos y conocemos y de la que podemos extraer información para obtener valor. Para ello utilizamos una tecnología avanzada – como la tecnología de snapshots para conseguir restauraciones instantáneas- y un repositorio único para almacenar la información y evitar su innecesaria duplicación.
En un mundo donde los datos se acumulan de forma masiva, tanto a nivel personal como a nivel empresarial, y donde necesitamos disponibilidad inmediata de esos datos, que pueden estar guardados en cualquier sitio, la posibilidad de reducir la complejidad a la hora de gestionar recursos de almacenamiento y dar visibilidad sobre los mismos es clave, especialmente cuando llega el momento de la toma de decisiones, tanto de retención de información como de adquisición de nuevo almacenamiento.
Como conclusión, podemos decir que encontrar una solución de protección eficaz para los datos distribuidos se convierte en apremiante para las organizaciones. Las empresas necesitan una solución económicamente competitiva, fácil de usar y fiable para proteger y, cuando sea necesario, recuperar y acceder a datos clave para el negocio que han sido creados y almacenados fuera del centro de datos. La respuesta está en afrontar los cambios basándonos en una plataforma única, de forma que se ahorren costes, riesgos y se incrementen los niveles de productividad y competitividad de cualquier organización.
En esta tribuna, Rainer W. Kaese, director sénior de Desarrollo de Negocio de HDD de…
En esta tribuna, Enric Delgado, director de Client Engineering Team de España, Portugal, Grecia e…
En esta tribuna, Justin Murrill, director de Responsabilidad Corporativa en AMD, explica cómo la arquitectura…
En esta tribuna, Mario Carranza, especialista en observabilidad de CPO WOCU-Monitoring, explica cómo la observabilidad…
Adam Meyers, responsable de operaciones contra adversarios en CrowdStrike, explica cómo combatir las amenazas transversales…
Ana Belén González Bartolomé, Head of Manufacturing, Logistics, Energy, and Utilities para España, Portugal e…