¿Qué esperar de la analítica de datos en 2017?

En 2016 las herramientas de preparación de datos de autoservicio experimentaron un rápido crecimiento, ya que más usuarios se han dado cuenta de que la tecnología les puede ahorrar tiempo, presupuesto y recursos al encontrar y acceder rápidamente a datos de prácticamente cualquier fuente y luego prepararlos para su análisis.

Esta tendencia continuará expandiéndose en 2017, un año en el que también veremos cómo los científicos de datos, los analistas de datos y las empresas seguirán transformándose para aprovechar la información y ofrecer valor corporativo para mejorar los procesos operativos, tal y como recoge eWeek.

Dado que los datos están distribuidos por toda la organización y los usuarios a menudo trabajan aislados, la información en las empresas se ha vuelto incontrolable e impredecible. Su mala gestión aumenta los riesgos de seguridad y cumplimiento y da como resultado una calidad de datos inferior. En consecuencia, los analistas de datos y los usuarios empresariales a menudo desconfían de sus fuentes y no creen que los datos sean precisos, oportunos y válidos.

La calidad de los datos y la preparación de los datos son dos funciones separadas y distintas pero en 2017 convergerán y las organizaciones entenderán mejor cómo implementar las capacidades de ambos para obtener los mejores resultados analíticos.

Por otro lado, de cara al año que viene los datos de los dispositivos del Internet de las Cosas (IoT) impulsarán la demanda de bases de datos con la funcionalidad de preparar los datos en tiempo real. Cada vez más empresas están comenzando a utilizar los datos de los dispositivos del IoT para la analítica, pero están descubriendo que ya no es efectivo poner esta información en un repositorio que no tiene la capacidad de analizar de forma eficiente los datos en el momento que se generan.

Además, la virtualización de datos será más popular para los procesos de analítica. Es una técnica con muchas promesas, ya que permite reducir los costes porque las organizaciones no necesitan crear almacenes; ayuda con el análisis en tiempo real porque los datos no necesitan moverse de unas instancias a otras; y aumenta la agilidad, permitiendo a los usuarios analizar más fuentes más rápidamente.

Rosalía Rozalén

Periodista especializada en Tecnología desde hace más de una década. Primero informando sobre el canal de distribución, después sobre las grandes corporaciones y ahora hacia un enfoque más IT Pro. Apasionada de la comunicación con la revolución social media que estamos viviendo.

Recent Posts

Dell Technologies introduce avances en Dell NativeEdge

Dell pretende que "las organizaciones puedan utilizar continuamente los últimos avances de IA en el…

15 horas ago

HPE anuncia más soluciones de supercomputación

Introduce cinco nuevas soluciones HPE Cray con arquitectura de refrigeración líquida directa y dos servidores…

15 horas ago

Meta Park Montseny-Riells abre las puertas a la realidad aumentada

Las entradas para acudir a este parque temático que defiende un turismo sostenible saldrán a…

16 horas ago

QNAP soportará QTS 5.2 y QuTS hero h5.2 a largo plazo

Amplía la disponibilidad de actualizaciones y parches críticos para ambos sistemas operativo hasta agosto de…

17 horas ago

Pure Storage introduce mejoras en su plataforma Portworx

Con esta actualización acelera las cargas de trabajo de Kubernetes para máquinas virtuales, bases de…

17 horas ago

Elena de Pablo se convierte en Ecosystem Senior Manager de EIT Manufacturing para Iberia

Su cometido pasa por consolidar y ampliar el ecosistema industrial en España y Portugal.

18 horas ago