El análisis de ‘Big Data’ es de vital importancia para las empresas

El concepto de ‘Big Data’ sigue extendiéndose a pasos agigantados debido a su importancia dentro de las organizaciones. Básicamente, se trata de procesar y almacenar ingentes cantidades de información no estructurada, algo que hasta hace relativamente poco tiempo era realmente complicado aplicando los sistemas de bases de datos tradicionales.

Sin embargo, el crecimiento de la información que se genera por las compañías y por los propios usuarios obliga a desarrollar nuevas arquitecturas y sistemas que permitan mejorar su procesamiento y almacenamiento, pero a la vez a generar nuevos modelos analíticos para sacar el máximo partido a esa información no estructurada.

Las compañías de desarrollo de software han puesto el foco en la gestión de grandes volumenes de datos no estructurados

Un nuevo informe de la firma Ovum pone de manifiesto que un tercio de las compañías tiene previsto invertir en tecnología para análisis de ‘Big Data’ durante el próximo año. El estudio se ha realizado a 150 firmas de Estados Unidos, Europa y Asia que almacenan más de 1 TByte de información en sus sistemas. Mientras tanto, el 44% de estas organizaciones lo hará en los próximos dos años.

No obstante, tal y como señala el informe, mantener grandes cantidades de datos no implica que las compañías sean de gran tamaño, es algo que no está directamente relacionado. De hecho, el 38% de las encuestadas tienen una facturación por debajo de los 50 millones de dólares.

Los desarrolladores y grandes compañías de software saben de estas necesidades. Es por ello por lo que se ha detectado durante los últimos 18 meses un importante avance en materia de creación de soluciones que puedan dar cabida a estas grandes cantidades de datos para su procesamiento y análisis.

Es el caso del mercado de SQL avanzado, donde firmas como IBM, Oracle y HP están apostando fuertemente. No obstante, la tecnología NoSQL, con Apache Hadoop a la cabeza, parece ser una opción preferente para las compañías. El motivo principal es que se trata de una iniciativa basada en código abierto, aunque también hay que tener en cuenta que mejora notablemente la toma de decisiones al permitir análisis profundos de estos datos no estructurados.

Pablo Fernández

Informático reconvertido a periodista, Pablo Fernández Torres comenzó su andadura profesional como redactor técnico y coordinador web en la revista PC Actual. Tras 7 años en esta publicación decidió dar el salto al segmento IT profesional para liderar el lanzamiento a finales de 2008 de la cabecera Silicon en España y posteriormente en la región LATAM. En la actualidad ejerce como director editorial Internacional de NetMedia Group, que edita otras publicaciones online como ITespresso, Channelbiz, SiliconWeek, B!T y ZDnet Germany.

Recent Posts

La optimización de productos digitales gana a la creación entre las prioridades empresariales

El 57 % de las compañías españolas está manteniendo este año su nivel de inversión…

1 hora ago

En España, el 22 % de las empresas industriales sufre problemas de red 2 o 3 veces al mes

Entre los problemas a los que se enfrentan las compañías con infraestructura distribuida geográficamente se…

3 horas ago

Así evolucionará la mensajería empresarial RCS durante los próximos años

Juniper Research prevé un incremento del 50 % en el tráfico de mensajes para 2025.

3 horas ago

Los envíos trimestrales de tabletas rozan los 40 millones de unidades

Aumentaron un 20,4 % durante los meses de julio, agosto y septiembre para llegar a…

6 horas ago

La conferencia Fal.Con llega por primera vez a Europa

CrowdStrike celebra este evento en Ámsterdam entre el 5 y el 7 de noviembre.

6 horas ago

Econocom renueva su nuevo Comité Ejecutivo

Quentin Bouchard, Israel García y Philippe Renauld se convierten en los nuevos miembros de un…

7 horas ago