El análisis de ‘Big Data’ es de vital importancia para las empresas

El concepto de ‘Big Data’ sigue extendiéndose a pasos agigantados debido a su importancia dentro de las organizaciones. Básicamente, se trata de procesar y almacenar ingentes cantidades de información no estructurada, algo que hasta hace relativamente poco tiempo era realmente complicado aplicando los sistemas de bases de datos tradicionales.

Sin embargo, el crecimiento de la información que se genera por las compañías y por los propios usuarios obliga a desarrollar nuevas arquitecturas y sistemas que permitan mejorar su procesamiento y almacenamiento, pero a la vez a generar nuevos modelos analíticos para sacar el máximo partido a esa información no estructurada.

Las compañías de desarrollo de software han puesto el foco en la gestión de grandes volumenes de datos no estructurados

Un nuevo informe de la firma Ovum pone de manifiesto que un tercio de las compañías tiene previsto invertir en tecnología para análisis de ‘Big Data’ durante el próximo año. El estudio se ha realizado a 150 firmas de Estados Unidos, Europa y Asia que almacenan más de 1 TByte de información en sus sistemas. Mientras tanto, el 44% de estas organizaciones lo hará en los próximos dos años.

No obstante, tal y como señala el informe, mantener grandes cantidades de datos no implica que las compañías sean de gran tamaño, es algo que no está directamente relacionado. De hecho, el 38% de las encuestadas tienen una facturación por debajo de los 50 millones de dólares.

Los desarrolladores y grandes compañías de software saben de estas necesidades. Es por ello por lo que se ha detectado durante los últimos 18 meses un importante avance en materia de creación de soluciones que puedan dar cabida a estas grandes cantidades de datos para su procesamiento y análisis.

Es el caso del mercado de SQL avanzado, donde firmas como IBM, Oracle y HP están apostando fuertemente. No obstante, la tecnología NoSQL, con Apache Hadoop a la cabeza, parece ser una opción preferente para las compañías. El motivo principal es que se trata de una iniciativa basada en código abierto, aunque también hay que tener en cuenta que mejora notablemente la toma de decisiones al permitir análisis profundos de estos datos no estructurados.

Pablo Fernández

Informático reconvertido a periodista, Pablo Fernández Torres comenzó su andadura profesional como redactor técnico y coordinador web en la revista PC Actual. Tras 7 años en esta publicación decidió dar el salto al segmento IT profesional para liderar el lanzamiento a finales de 2008 de la cabecera Silicon en España y posteriormente en la región LATAM. En la actualidad ejerce como director editorial Internacional de NetMedia Group, que edita otras publicaciones online como ITespresso, Channelbiz, SiliconWeek, B!T y ZDnet Germany.

Recent Posts

¿Cómo afrontan los españoles el Black Friday?

Solamente 1 de cada 10 no aprovechará las rebajas, el 70 % gastará lo mismo…

29 mins ago

La ciberseguridad del IoT crecerá un 120% en el próximo lustro

El internet de las cosas (IoT) trae muchas ventajas, pero también comporta nuevos riesgos. El…

2 días ago

Bitdefender lanza un programa de garantía contra violaciones de seguridad

Ofrece hasta 1 millón de dólares de compensación económica en caso de incidente, con la…

3 días ago

Cloud Expo evoluciona a Cloud & AI Infrastructure

Este cambio refleja los avances que se producen a nivel de infraestructura TI y el…

3 días ago

DES2025 se centrará en la IA y ofrecerá una zona de experiencia tecnológica

El evento espera reunir a 17.000 directivos, que podrán escuchar a medio centenar expertos en…

3 días ago

Snowflake llega a un acuerdo con Datavolo para su adquisición

Como resultado de esta operación, ampliará sus servicios en el "bronze layer" del ciclo de…

3 días ago