Hoy en día, muchas compañías aspiran a ser Data-Driven, es decir, a convertirse en organizaciones en las que los datos constituyen el eje fundamental de su negocio y que toman sus decisiones estratégicas en base a la información que les proporcionan. Sin embargo, ser Data-Driven no es algo que se pueda lograr en unos pocos días; deben comenzar un largo y complejo proceso que a veces va mucho más allá de implementar ciertas soluciones tecnológicas y es por eso que puede llegar a causar escepticismo dentro de la organización.
En este sentido, el año pasado Harvard Business Review publicó una investigación realizada por la consultora New Vantage Partners entre compañías estadounidenses en la que reflejaba que, a pesar de las grandes inversiones en Big Data e Inteligencia Artificial, el porcentaje de encuestados que consideraban su organización Data-Driven había caído del 37,1% al 31% en tan solo dos años.
Estas cifras ponen de manifiesto que, aunque las inversiones en nuevas tecnologías son imprescindibles, también es necesario que la cultura de la organización esté preparada para ello, lo que puede requerir cambios en los procesos de negocio, estilo de gestión, roles e incluso en el propio organigrama. Porque al final, ser Data-Driven lo abarca todo, pero los beneficios potenciales valen mucho la pena.
El factor clave para ser Data-Driven es que las organizaciones se aseguren de que la mayor cantidad posible de sus miembros puedan beneficiarse de todos los datos recopilados a lo largo de los años y que realmente se utilicen para mejorar y optimizar tanto los procesos de negocio, como los que implican tomar decisiones. Pero para poder lograrlo, los usuarios deben tener un acceso más sencillo y rápido y asegurarse de que si tienen una necesidad de información, estará disponible en la forma y el momento preciso. Todo eso requiere de una arquitectura de datos muy flexible que admita al menos ocho características y que solo las tecnologías de virtualización de datos proporcionan en su totalidad:
En primer lugar, debe poder realizar informes específicos o “ad-hoc”: la dirección de la compañía podría necesitar nuevos informes para tomar rápidas debido a oportunidades inesperadas o urgencias repentinas y esas decisiones no pueden basarse en intuiciones o corazonadas, sino en datos actualizados y adecuados. Esto requiere que los datos de múltiples fuentes se puedan combinar rápida y fácilmente para su análisis.
En segundo lugar, debe tener una visión coherente de los datos: sin importar el formato, momento, dispositivo o ubicación donde se consultan los datos, todos deberían representar la misma información. Por ejemplo, los datos de ventas que se muestran en una hoja de cálculo, un dashboard avanzado o una aplicación Java deberían ser coherentes todos ellos entre sí.
En tercer lugar, conviene tener una visión de 360 grados de todos los activos y elementos de negocio: tanto si es una aplicación de móvil que consultan cientos de usuarios online o una hoja de cálculo para la alta dirección, una visión de 360 grados de todos los activos como, por ejemplo, clientes, vehículos, instalaciones, etc, debería estar disponible para todos.
En cuarto lugar, las regulaciones internas sobre privacidad de los datos tienen que estar centralizadas: las reglas de privacidad deben implementarse de manera central, en lugar de en forma dispersa. Las organizaciones no pueden permitirse errores con ello en la gestión y disponibilidad de los datos.
En quinto lugar, los datos deberían tener una latencia mínima o cero: cada vez más usuarios dentro de la organización necesitan poder tener datos con una latencia mínima y lo más actualizados posibles. Pero esto implica que se descarten los modelos de arquitectura en la que se copian de unas bases de datos a otras. Las nuevas arquitecturas de datos deberían poder presentarlos casi en tiempo real.
En sexto lugar, hay que contar con un soporte para las nuevas tecnologías de procesamiento de datos: en los últimos 10 años, han surgido nuevas tecnologías de analítica y almacenamiento de datos mucho más rápidas y potentes. La arquitectura debe ser capaz de soportarlas, de manera que sea mucho más sencillo implementarlas, porque las nuevas tecnologías podrían suponer nuevas oportunidades de negocio.
En séptimo lugar, es recomendable que el acceso a los datos maestros sean una parte integrada de la arquitectura de datos, plenamente accesible para los usuarios.
Por último, también hay que asegurar la disponibilidad de los metadatos, que son cruciales para entender la información principal. Almacenar y gestionar los metadatos es útil, pero el reto está en que sean fácilmente accesibles para los usuarios como si fueran los datos comunes. Cuanto más fácil es su acceso, más transparente serán nuestros sistemas para los usuarios y eso generará que la confianza en nuestra información aumente significativamente.
Cada una de estas características se ajustan a la perfección a lo que ofrecen las tecnologías de virtualización de datos. Aunque, como hemos abordado, las tecnologías de virtualización por sí solas no convierten a una organización en Data-Driven, sí que pueden proporcionar todos los elementos clave descritos y eso ya supondría un gran comienzo. La virtualización puede actuar como la puerta de entrada para la arquitectura a todos los datos ocultos en sistemas transaccionales (tanto en la nube como On-Premise), data warehouses, data lakes y archivos planos y puede ayudar a desbloquear todos ellos, ayudando a los usuarios a utilizarlos de manera más consistente. También proporciona datos maestros y metadatos, muestra datos casi en tiempo real y aprovecha nuevas tecnologías. Como resultado, puede ayudar a las organizaciones en sus operaciones para utilizar los datos de manera más amplia, eficiente y efectiva, por lo que mejorarán sus procesos de negocio y la toma de decisiones.
En esta tribuna, Rainer W. Kaese, director sénior de Desarrollo de Negocio de HDD de…
En esta tribuna, Enric Delgado, director de Client Engineering Team de España, Portugal, Grecia e…
En esta tribuna, Justin Murrill, director de Responsabilidad Corporativa en AMD, explica cómo la arquitectura…
En esta tribuna, Mario Carranza, especialista en observabilidad de CPO WOCU-Monitoring, explica cómo la observabilidad…
Adam Meyers, responsable de operaciones contra adversarios en CrowdStrike, explica cómo combatir las amenazas transversales…
Ana Belén González Bartolomé, Head of Manufacturing, Logistics, Energy, and Utilities para España, Portugal e…