Google Cloud presenta BigLake, su nueva herramienta de análisis de datos
BigLake, la nueva herramienta para análisis de datos almacenados en Google Cloud.
Tras anunciarlo en su evento Cloud Data Summit, Google Cloud ya mostrado un avance de BigLake, el nuevo motor de gestión de datos almacenados para facilitar a las empresas el análisis de sus bases de datos.
El propósito es trasladar la experiencia de Google con la gestión de sus propias granjas de almacenamiento de datos mediante BigQuery a los archivos almacenados en Google Cloud, combinando en un único servicio lo mejor de ambos campos de manera que pueda gestionarse todo tipo de formatos y sistemas de almacenamiento.
Esto permite que los datos puedan estar almacenados indistintamente en BigQuery (Google), en AWS S3 (Amazon) o en Azure Data Lake Store Gen2 (Microsoft). Mediante BigLake los desarrolladores podrán acceder, mediante un motor uniforme de gestión de almacenamiento, lo que evita la necesidad de duplicar o trasladar datos entre distintas plataforma.
Incurrir en dichas acciones puede comportar riesgos y supone incremento de gastos, según explica Gerrit Kazmaier, vicepresidente y director general de Bases de Datos, Análisis de Datos y Business Intelligence en Google Cloud. También afirma que BigLake permite reducir ineficiencias, además de costos, al eliminar la necesidad de duplicaciones y traslados de datos entre plataformas, simplificando el análisis de los datos descartando las preocupaciones inherentes a manejar distintos sistemas y formatos.
La seguridad en la integridad de los datos queda garantizada mediante el recurso por parte de BigLake a BigQuery Omni, la herramienta de Google de analítica multi-Nube, capaz de asegurar el trasvase de datos y su flujo entre herramientas como Presto, Spark, TensorFlow y Trino. Adicionalmente puede integrar Dataplex, herramienta de Google con capacidades adicionales de gestión de datos.