Todo el mundo ha hablado durante el año que acabamos de dejar sobre ‘Big Data’, una de las tendencias que más han crecido en los últimos meses. La consumerización de la tecnología, las redes sociales y la movilidad han sido los precursores de este concepto en el que se pretende incluir todos aquellos conjuntos de datos que, por su complejidad y volumen, van más allá de las bases de datos relacionales que han reinado durante años.

Grandes y pequeños fabricantes de software se han percatado de ello y la gran mayoría ya cuenta con alguna solución que de cobertura a esta gestión. Tanto a la hora de capturar los datos como de almacenarlos, organizarlos y, sobre todo, analizarlos.

Este último apartado, el del análisis, tal vez sea el más complejo de llevar a cabo ya que es necesario generar algoritmos que sean capaces de relacionar datos no estructurados de lo más variopinto. Facebook, por ejemplo, genera cada mes treinta mil millones de elementos de contenido, desde fotos y vídeos a comentarios o enlaces. Toda esa información ya puede ser procesada mediante este tipo de técnicas.

Pero para hacerlo correctamente es necesario atender a una definición más extensa de ‘Big Data’, algo que ha hecho Umesh Jain, de Software Magazine. Propone tres características principales, las tres ‘V’:

  • Volumen: Grandes volúmenes de datos, a partir de TeraBytes o incluso PetaBytes. Hay que tener en cuenta que lo que ahora nos parece mucha cantidad de información dentro de un par de años o tres será algo normal. Pronto accederemos a la era del ‘ZettaByte’.
  • Variedad: El concepto de Big Data también suele venir acompañado de diversos tipos de fuentes de datos, ya sean estructurados o no estructurados.
  • Velocidad: La frecuencia de las actualizaciones de estas grandes bases de datos también es un punto muy a tener en cuenta. Es por ello por lo que su procesamiento y posterior análisis también ha de realizarse prácticamente en tiempo real para poder mejorar la toma de decisiones en base a la información generada.

Para 2012 se espera que las soluciones capaces de mantener el control sobre estas tres características sean cada vez más. Un caso de éxito interesante es el del proyecto Hadoop, basado en código abierto y que ha sido adoptado por muchos fabricantes, incluidos IBM, Microsoft, Jaspersoft…, dentro de sus desarrollos y soluciones. De entre sus bondades destaca la eficacia con la que se almacena la información para su posterior procesamiento y reproducción de informes personalizados.

SAP y su tecnología HANA, capaz de transferir íntegramente los datos almacenados en disco directamente a la memoria de los servidores, también ha dado un importante paso hacia delante, sobre todo a la hora de obtener los resultados solicitados prácticamente en tiempo real. Lo que ahora se consigue en un par de segundos mediante esta arquitectura, antes requería de horas e incluso días. Con ello se mejora exponencialmente la toma de decisiones en las empresas y, por ende, la continuidad de los negocios.

Pablo Fernández

Informático reconvertido a periodista, Pablo Fernández Torres comenzó su andadura profesional como redactor técnico y coordinador web en la revista PC Actual. Tras 7 años en esta publicación decidió dar el salto al segmento IT profesional para liderar el lanzamiento a finales de 2008 de la cabecera Silicon en España y posteriormente en la región LATAM. En la actualidad ejerce como director editorial Internacional de NetMedia Group, que edita otras publicaciones online como ITespresso, Channelbiz, SiliconWeek, B!T y ZDnet Germany.

Recent Posts

La ciberseguridad del IoT crecerá un 120% en el próximo lustro

El internet de las cosas (IoT) trae muchas ventajas, pero también comporta nuevos riesgos. El…

2 días ago

Bitdefender lanza un programa de garantía contra violaciones de seguridad

Ofrece hasta 1 millón de dólares de compensación económica en caso de incidente, con la…

3 días ago

Cloud Expo evoluciona a Cloud & AI Infrastructure

Este cambio refleja los avances que se producen a nivel de infraestructura TI y el…

3 días ago

DES2025 se centrará en la IA y ofrecerá una zona de experiencia tecnológica

El evento espera reunir a 17.000 directivos, que podrán escuchar a medio centenar expertos en…

3 días ago

Snowflake llega a un acuerdo con Datavolo para su adquisición

Como resultado de esta operación, ampliará sus servicios en el "bronze layer" del ciclo de…

3 días ago

NetApp aumenta un 6 % sus ingresos trimestrales

Durante el segundo trimestre de su año fiscal 2025 acumuló 1.660 millones de dólares, la…

3 días ago