El análisis de ‘Big Data’ es de vital importancia para las empresas

El concepto de ‘Big Data’ sigue extendiéndose a pasos agigantados debido a su importancia dentro de las organizaciones. Básicamente, se trata de procesar y almacenar ingentes cantidades de información no estructurada, algo que hasta hace relativamente poco tiempo era realmente complicado aplicando los sistemas de bases de datos tradicionales.

Sin embargo, el crecimiento de la información que se genera por las compañías y por los propios usuarios obliga a desarrollar nuevas arquitecturas y sistemas que permitan mejorar su procesamiento y almacenamiento, pero a la vez a generar nuevos modelos analíticos para sacar el máximo partido a esa información no estructurada.

Las compañías de desarrollo de software han puesto el foco en la gestión de grandes volumenes de datos no estructurados

Un nuevo informe de la firma Ovum pone de manifiesto que un tercio de las compañías tiene previsto invertir en tecnología para análisis de ‘Big Data’ durante el próximo año. El estudio se ha realizado a 150 firmas de Estados Unidos, Europa y Asia que almacenan más de 1 TByte de información en sus sistemas. Mientras tanto, el 44% de estas organizaciones lo hará en los próximos dos años.

No obstante, tal y como señala el informe, mantener grandes cantidades de datos no implica que las compañías sean de gran tamaño, es algo que no está directamente relacionado. De hecho, el 38% de las encuestadas tienen una facturación por debajo de los 50 millones de dólares.

Los desarrolladores y grandes compañías de software saben de estas necesidades. Es por ello por lo que se ha detectado durante los últimos 18 meses un importante avance en materia de creación de soluciones que puedan dar cabida a estas grandes cantidades de datos para su procesamiento y análisis.

Es el caso del mercado de SQL avanzado, donde firmas como IBM, Oracle y HP están apostando fuertemente. No obstante, la tecnología NoSQL, con Apache Hadoop a la cabeza, parece ser una opción preferente para las compañías. El motivo principal es que se trata de una iniciativa basada en código abierto, aunque también hay que tener en cuenta que mejora notablemente la toma de decisiones al permitir análisis profundos de estos datos no estructurados.

Pablo Fernández

Informático reconvertido a periodista, Pablo Fernández Torres comenzó su andadura profesional como redactor técnico y coordinador web en la revista PC Actual. Tras 7 años en esta publicación decidió dar el salto al segmento IT profesional para liderar el lanzamiento a finales de 2008 de la cabecera Silicon en España y posteriormente en la región LATAM. En la actualidad ejerce como director editorial Internacional de NetMedia Group, que edita otras publicaciones online como ITespresso, Channelbiz, SiliconWeek, B!T y ZDnet Germany.

Recent Posts

Predicción y prescripción, más allá de la IA generativa

Qlik detalla las ventajas de las soluciones que están basadas en la inteligencia artificial predictiva…

13 horas ago

El ‘ransomware’ será la máxima amenaza a la ciberseguridad en 2025

El uso de la inteligencia artificial, la escasez de talento y el impacto de la…

15 horas ago

Nuevas técnicas de ataque a dispositivos móviles y otros desafíos que definirán el futuro inmediato

La compañía de seguridad ESET publica sus predicciones para 2025, en medio de la "innovación…

16 horas ago

Aumenta un 51 % el abuso de aplicaciones de confianza

La aplicación de confianza con la que más se entrometen los ciberdelincuentes es el Protocolo…

18 horas ago

Comprender el valor de la modularidad, tarea pendiente de los directivos

Un estudio de IFS, Boom e IDC revela que solamente un 19 % de las…

2 días ago

Un 67 % de los consumidores rechaza en España a aquellas empresas que no protegen sus datos

Para garantizar la privacidad, el 30 % se ha pasado a otra compañía durante el…

2 días ago