¿Qué esperar de la analítica de datos en 2017?
2016 ha sido un gran año para la analítica de datos de autoservicio y esta tendencia continuará expandiéndose en el nuevo año.
En 2016 las herramientas de preparación de datos de autoservicio experimentaron un rápido crecimiento, ya que más usuarios se han dado cuenta de que la tecnología les puede ahorrar tiempo, presupuesto y recursos al encontrar y acceder rápidamente a datos de prácticamente cualquier fuente y luego prepararlos para su análisis.
Esta tendencia continuará expandiéndose en 2017, un año en el que también veremos cómo los científicos de datos, los analistas de datos y las empresas seguirán transformándose para aprovechar la información y ofrecer valor corporativo para mejorar los procesos operativos, tal y como recoge eWeek.
Dado que los datos están distribuidos por toda la organización y los usuarios a menudo trabajan aislados, la información en las empresas se ha vuelto incontrolable e impredecible. Su mala gestión aumenta los riesgos de seguridad y cumplimiento y da como resultado una calidad de datos inferior. En consecuencia, los analistas de datos y los usuarios empresariales a menudo desconfían de sus fuentes y no creen que los datos sean precisos, oportunos y válidos.
La calidad de los datos y la preparación de los datos son dos funciones separadas y distintas pero en 2017 convergerán y las organizaciones entenderán mejor cómo implementar las capacidades de ambos para obtener los mejores resultados analíticos.
Por otro lado, de cara al año que viene los datos de los dispositivos del Internet de las Cosas (IoT) impulsarán la demanda de bases de datos con la funcionalidad de preparar los datos en tiempo real. Cada vez más empresas están comenzando a utilizar los datos de los dispositivos del IoT para la analítica, pero están descubriendo que ya no es efectivo poner esta información en un repositorio que no tiene la capacidad de analizar de forma eficiente los datos en el momento que se generan.
Además, la virtualización de datos será más popular para los procesos de analítica. Es una técnica con muchas promesas, ya que permite reducir los costes porque las organizaciones no necesitan crear almacenes; ayuda con el análisis en tiempo real porque los datos no necesitan moverse de unas instancias a otras; y aumenta la agilidad, permitiendo a los usuarios analizar más fuentes más rápidamente.