Los cinco retos del Big Data
Un hombre con un reloj sabe qué hora es, uno con dos relojes jamás está seguro. Algo parecido sucede cuando se habla de análisis de datos y copias repartidas por doquier.
En la actualidad, aunque el almacenamiento de datos sigue siendo algo necesario, ya no es suficiente por sí solo. Cuando los datos respaldan procesos de negocio cruciales deben ser precisos, fiables y certificados y una copia siempre será mejor que dos. Esto se consigue proporcionando varias aplicaciones de análisis para una de las copias de datos, y no al revés.
Por otro lado, para optimizar completamente los procesos de negocio, es necesario integrar los datos para apoyar los análisis multifuncionales, sin importar las fronteras funcionales, organizativas y geográficas.
Desde Teradata explican que estos cambios han contribuido a la evolución desde lo que se podría denominar como arquitectura “monolítica” a un Data Warehouse más distribuido, que, en el caso de esta compañía especializada en el análisis de datos, denominan Unified Data Architecture.
Independientemente de cómo se llame a esta evolución, el futuro de las empresas de Analytical Architecture para por usar e integrar múltiples plataformas de análisis, cada una de ellas optimizada para conseguir diferentes combinaciones de los 5 retos de Big Data, que están variando la Arquitectura Analítica Empresarial. Los cinco retos son estos:
1. El reto de los datos multi-estructurados. Es preciso ser capaz de gestionar de forma relacional los datos multi-estructurados y combinar enfoques “schema on-load” y “schema on-read”, lo que hace que las estrategias de gestión de la información que “sirven para todo” sean cada vez menos rentables.
2. El desafío de las analíticas interactivas. No hay soluciones milagrosas para Big Data Analytics, como demuestra el aumento de nuevos modelos generalistas de programación paralela como MapReduce y Bulk Synchronous Parallel (BSP) para usos intensivos de CPU.
3. La pasta, siempre, la pasta. Uno de los grandes retos de la industria está dirigido a minimizar los costes de almacenaje. Y es que, como nos recuerdan desde Terada, el coste unitario de almacenaje es igual al coste unitario de procesamiento, que a su vez es igual al coste total de propiedad.
4. La aguja en el pajar. El símil es muy gráfico: puede haber una aguja en un pajar, pero si se necesitan 12 meses y 500.000€ para averiguarlo no hay tiempo ni dinero para investigarlo. Ya no tiene sentido llevar a cabo una búsqueda de “Exploración & Descubrimiento” de la misma forma que se hace con el BI tradicional.
5. Ir más allá para ofrecer verdadero valor de negocio. el objetivo de un proyecto Big Data no es aumentar los conocimientos empresariales, sino cambiar la forma en la que se hacen los negocios compartiendo esos conocimientos con todos los estamentos de la empresa y cambiando los procesos de negocio.