El impacto de ‘Big Data’ en el mercado del almacenamiento
Compañías de todos los tamaños deben afrontar el reto de mejorar sus infraestructuras de almacenamiento para dar respuesta al creciente volumen de datos que se generan.
La información digital que se genera cada día crece a pasos agigantados y es de vital importancia que las empresas reaccionen a estas tendencias para sacar sus negocios adelante. El problema es que ya no sólo se trata de comprar más capacidad para sus sistemas, sino que se hace necesario aplicar otro tipo de iniciativas que mejoren la eficiencia a distintos niveles.
No es tampoco un problema que se pueda aplicar exclusivamente a la gran empresa. También las pequeñas y medianas organizaciones deben ponerse manos a la obra para afrontar el desafío de los grandes volúmenes de información no estructurada que se generan a su alrededor.
Según un estudio de IDC, será necesario prestar atención a tecnologías como el almacenamiento multinivel, la virtualización del almacenamiento y la deduplicación de los datos, entre otras. Las técnicas tradicionales empleadas durante años ya no tienen sentido por lo que se hace necesario innovar para mantener la continuidad de los negocios.
Por otra parte, en materia de hardware, muchas compañías especializadas aseguran que los sistemas de almacenamiento son los que más energía y refrigeración devoran. En términos medios, la media de utilización de los recursos en este sentido es tan sólo del 40-45%, lo que supone que más de la mitad de la capacidad de los centros de datos no se está utilizando eficientemente.
NetApp, por ejemplo, define la eficiencia del almacenamiento como la habilidad de almacenar la máxima información posible en el menor espacio y con el menor coste. “Es casi imposible predecir cuánto tiempo deberá estar almacenado un fichero en el disco. Todos los datos comienzan su ciclo de vida en el almacenamiento primario (discos duros), desde una entrada de una base de datos, un fichero del usuario, código gente, un adjunto de un correo electrónico… Y este proceso comienza una cadena de eventos que suelen terminar desembocar en ineficiencias del almacenamiento”, declara Rajesh Awasthi, directivo de la compañía.
Una brecha que se cierra
Gestión del almacenamiento y gestión de los datos. Se trata de dos procesos que hasta ahora no habían ido de la mano. Los recursos empleados para uno y otro eran habitualmente paralelos pero independientes. Los administradores de datos se volcaban en tareas como la redundancia, el rendimiento o la disponibilidad, mientras que los administradores del almacenamiento se volcaban en proporcionar la infraestructura física capaz de satisfacer los requerimientos de los datos.
Primero se configuraba la infraestructura física del almacenamiento para que los datos se pudieran almacenar correctamente. En caso de que los requerimientos de la primera cambiaran, la información almacenada debía ser migrada a otro lugar, produciéndose una interrupción en el servicio y, por ende, de la disponibilidad de los datos.
Esta brecha es la que pretenden evitar a toda costa las últimas tecnologías. Obviamente, no se concibe una gestión eficiente de grandes volúmenes de datos no estructurados mediante la infraestructura tradicional. Así, los fabricantes llevan mucho tiempo desarrollando consolas unificadas capaces de gestionar estos dos terrenos, así como múltiples arquitecturas y sistemas operativos para el almacenamiento. Sus funcionalidades permiten controlar desde el firmware hasta las máquinas virtuales y físicas relacionadas con el ‘storage’, pero también los servidores, los sistemas de red y los sistemas operativos que gobiernan todos estos recursos.