2013, el año del almacenamiento definido por software

Si durante 2012 hemos comenzado a hablar de los centros definidos por software, el año que acaba de comenzar podría ser el de la nueva generación de arquitecturas para hacer lo propio con el almacenamiento. Ciertamente, se trata de buscar alternativas que sean capaces de dar respuesta a los crecientes volúmenes de datos de forma más eficiente y rentable.

George Teixeira, presidente y CEO de DataCore Software

George Teixeira, presidente y CEO de DataCore Software, explica en un comunicado que “el cambio de hardware hacia un modelo basado en software de virtualización apoya las misiones cruciales de las aplicaciones de negocio, que han pasado de ser estáticas a dinámicas. El objetivo final es incrementar la productividad del usuarios y mejorar la experiencia de la aplicación”.

Teixeira pronostica que dentro de poco todas las aplicaciones de nivel 1, como las bases de datos los ERP, el correo electrónico, etc. se entregarán y gestionarán de forma virtualizada, lo que permitirá reducir costes y mejorar su rendimiento. Sin embargo, las empresas deben hacer evolucionar sus sistemas de almacenamiento para conseguirlo ya que el mero hecho de añadir más hardware tradicional a los sistemas no es la solución más práctica y tampoco la más asequible.

La adopción en las empresas de la tecnología SSD será algo prácticamente obligatorio, toda vez que su precio ha caído frenéticamente durante los dos últimos años. Además, será recomendable aplicar técnicas adicionales para su automatización, ya que la demanda es constante y está creciendo a un ritmo de más del 50% cada año, tal y como advierte el máximo representante de DataCore Software.

De la misma forma, el uso del software de almacenamiento será más importante que el propio hardware, “un elemento esencial en los centros de datos”, explica.  Esta evolución favorecerá la creación de un hipervisor del almacenamiento independiente. De la misma forma que ya ocurre con los hipervisores dedicados a la gestión de procesadores, memoria, servidores y máquinas virtuales, los recursos de almacenamiento también estarán gobernados por esa capa virtual, lo que aglutinará toda la infraestructura (sea del tipo que sea y se encuentre en el lugar que se encuentre) para que sea gestionada de forma unificada, como un todo.

Pablo Fernández

Informático reconvertido a periodista, Pablo Fernández Torres comenzó su andadura profesional como redactor técnico y coordinador web en la revista PC Actual. Tras 7 años en esta publicación decidió dar el salto al segmento IT profesional para liderar el lanzamiento a finales de 2008 de la cabecera Silicon en España y posteriormente en la región LATAM. En la actualidad ejerce como director editorial Internacional de NetMedia Group, que edita otras publicaciones online como ITespresso, Channelbiz, SiliconWeek, B!T y ZDnet Germany.

Recent Posts

Recomendaciones de seguridad para mantener los almacenes libres de ciberdelincuencia

Sin las medidas de protección necesarias, un almacén puede convertirse en el eslabón más débil…

5 horas ago

La importancia de optimizar los pagos para generar más ingresos y reducir los costes

Adyen publica los resultados de su estudio "Estrategias para reducir el coste total de pagos",…

5 horas ago

Solamente 2 de cada 10 empresas reducen su huella medioambiental con tecnología

Del porcentaje global del 21 % se baja a un 18 % en el caso…

6 horas ago

Sophos: “El uso más frecuente de la IA en la ciberdelincuencia es para ‘turboalimentar’ sus estafas sociales”

Entrevistamos a John Shier, CTO Field de Sophos, que hace repaso de las principales amenazas…

6 horas ago

¿Cómo convertir a España en hub digital clave para Europa?

Desde fibratel comparten una serie de pautas para orientar la construcción de centros de datos…

6 horas ago

El paralelismo entre la inteligencia artificial y la química

Dell Technologies compara estos ámbitos y habla de "purificar la materia original", "combinar elementos", una…

7 horas ago