“Nosotros estamos peor” y otras leyendas urbanas en torno a Big Data

El Big Data no es un extraño ya para las organizaciones mundiales.

Se ha estado hablando tanto de esa acumulación de grandes cantidades de datos, en formato digital o en papel, que conviene analizar de forma inteligente para tomar decisiones de negocio más certeras, que el fenómeno se ha convertido en lugar común.

Pero al mismo tiempo tanta cobertura tiene ciertos efectos nocivos. Al menos en opinión de Gartner.

Esta consultora cree que se la ha dado tal “bombo” que “es difícil para los líderes de TI saber cómo explotar su potencial”. De hecho habla de cinco mitos que es necesario desterrar para avanzar hacia cuotas más altas de adopción y calidad. Esos mitos serían:

1. “Todo el mundo está por delante de nosotros en la adopción de Big Data”. Según Gartner el sentir general de las empresas es que se encuentran más rezagadas que la mayoría de su competidores. Nada más lejos de la realidad. Lo cierto es que, entre la intención de invertir y la materialización de los proyectos, muchas se quedan por el camino. Sólo el 13% de las compañías habría desplegado soluciones de Big Data a estas alturas.

2. “Tenemos tantos datos, que no necesitamos preocuparnos de cada pequeño fallo”. O se hacen bien las cosas, o no se hacen. No vale la regla de “cada error es sólo una pequeña parte de la masa de datos” con los que cuenta la organización para trabajar. Si hay errores individuales de por medio, por ínfimos que puedan parecer, desacreditarán a los grandes números. Además Gartner recuerda que “hay más defectos que antes porque hay más datos”.

3. “La tecnología Big Data eliminará la necesidad de la integración de datos”. Pensar esto es otro error garrafal. Frente al “esquema de lectura” que se supone que va unido a las nuevas soluciones para procesamiento de información de diversa naturaleza, por ejemplo, los expertos hablan más bien de “esquemas de escritura” con “datos que son descritos [y] contenido prescrito”.

4. “No tiene sentido utilizar almacenes de datos para análisis avanzado”. Gartner insiste en lo contrario: “muchos proyectos de análisis avanzados utilizan un almacén de datos”. Puede llevar su tiempo, por supuesto, y los que entienden de ello no lo niegan. Pero de ahí a decir que ya no tiene sentido recurrir a sistemas “warehouse” hay un trecho. A la hora de la verdad, al proceder a la gestión de Big Data para su estudio inmediato, habrá que hacer diferencias y ver cuál es la fórmula más adecuada en cada caso.

5. “Los Data Lakes reemplazarán al Data Warehouse”. Es un poco más de lo mismo. Puede que vayan surgiendo nuevas alternativas o que se nombre a los bautizados como “lagos de datos” como fórmula viable de almacenamiento a modo de repositorio único. Pero la aparición de nuevos modelos no implica desterrar los anteriores, sobre todo cuando los más recientes aún “no tienen la madurez y amplitud de características” del resto.

Mónica Tilves

Licenciada en Xornalismo por la Universidad de Santiago de Compostela en la especialidad de Periodismo Electrónico y Multimedia. Apasionada de los gadgets, la fotografía digital, el diseño web y el arte. Tras un primer contacto con el mundo de la prensa escrita y con la suficiencia investigadora debajo del brazo, me decanto por los medios online. Cubro la actualidad informativa en Silicon Week desde 2011, además de colaborar en otras publicaciones del grupo NetMediaEurope en España como Silicon News. Ahora en Silicon.es.

Recent Posts

Bitdefender lanza un programa de garantía contra violaciones de seguridad

Ofrece hasta 1 millón de dólares de compensación económica en caso de incidente, con la…

10 horas ago

Cloud Expo evoluciona a Cloud & AI Infrastructure

Este cambio refleja los avances que se producen a nivel de infraestructura TI y el…

10 horas ago

DES2025 se centrará en la IA y ofrecerá una zona de experiencia tecnológica

El evento espera reunir a 17.000 directivos, que podrán escuchar a medio centenar expertos en…

11 horas ago

Snowflake llega a un acuerdo con Datavolo para su adquisición

Como resultado de esta operación, ampliará sus servicios en el "bronze layer" del ciclo de…

12 horas ago

NetApp aumenta un 6 % sus ingresos trimestrales

Durante el segundo trimestre de su año fiscal 2025 acumuló 1.660 millones de dólares, la…

12 horas ago

Denodo Platorm 9.1 estrena asistente de inteligencia artificial

También incluye un SDK open source para potencia el desarrollo de aplicaciones y agentes, especialmente…

13 horas ago