Talend libera la actualización de su solución de Big Data con características Multi-Cloud
La versión Summer ’17 de su plataforma Talend Data Fabric mantiene el soporte más completo del sector para los principales proveedores en la nube como AWS, Azure o Google, además de las más exclusivas de Cloudera Altus y Snowflakes.
Talend Data Fabric permite a los clientes acceder a una variada y creciente biblioteca de componentes nativos desarrollados por Talend, utilizando herramientas visuales fáciles de “arrastrar y soltar” para crear flujos de trabajo big data que se ejecutan en cualquier nube, permitiendo a los clientes integrar, limpiar y analizar datos rápidamente para impulsar su innovación y obtener ventaja competitiva. Además de un robusto soporte para AWS, es el primer integrador del sector que da soporte para Cloudera Altus, así como permitir aprovechar las capacidades de carga paralela de Snowflakes.
Talend es una empresa joven surgida en Francia en 2006 a rebufo del ‘accurate data’ y la integración del dato, que ya cuenta con cuarteles generales en Silicon Valley. A España llegó a finales del año pasado, abriendo una oficina en Barcelona, aunque ya contaba con presencia en diversos clientes nacionales desde hace una década. Y es que desde el principio, el portfolio de Talend se ha ido enriqueciendo con nuevos productos: Data Quality (2008), NoSQL y Big Data (2012) con Hadoop 2.0 (2013) y Spark (2014), entre otras muchas tecnologías, que han convencido por su calidad y conveniencia a las compañías top 5 de muy diversos sectores: finanzas, telecomunicaciones, energía y utillities, construcción, farma, viajes…
“Nuestra misión ha sido desde el principio ayudar a las empresas que se orienten al dato de manera ágil”, señala Álvaro Palencia Camargo, Account Manager de Talend Spain. “Hace unos años sólo se debía decidir si Oracle o Teradata, porque iba a durar mucho, y las cargas y análisis se hacían a mano. Hoy necesitamos un procesamiento automatizado por la gran cantidad de datos a introducir y cruzar, y además se nos pide que sea en tiempo real, en modo autoservicio, que soporte aprendizaje para la toma decisiones y aporte seguridad y cumplimiento normativo. Y además se va al Cloud, y mientras hace unos pocos años tenías un proveedor específico, ahora es multicloud, y además, híbrido (nube privada, nube pública, on-premise, IaaS). La integración ha dejado de ser algo táctico para pasar a ser estratégico”.
Talend se apoya en el Open Source para la creación de sus reconocidos desarrollos, básicamente JavaScript y Apache, además de MapReduce y OpenShift, y dispone de más de 900 conectores que la hace prácticamente compatible con cualquier plataforma de manera nativa, lo que aumenta su rendimiento a la hora de integrar bases de datos, reutilizar código y escalar soluciones. De hecho acumulan más de 3 millones de descargas de sus productos en la versión gratuita, eso sí, con funcionalidades y componentes limitados. “Una política que nos está dando grandes resultados y una gran visibilidad, con una comunidad de 250.000 usuarios registrados, que alimenta nuestro propio marketplace para generar innovación y adaptarnos rápidamente al mercado”, explica Álvaro Palanca. “Nuestro modelo de licenciamiento por suscripción es muy similar al de Red Hat o Salesforce, con un cuerpo de management que acompaña en todo momento a los más de 2.500 clientes activos -esto es, de pago- que tenemos. Así logramos tasas de renovación del 90%”.
La lista corta de las consultoras
Estas cifras no han pasado desapercibida a los analistas, y tanto Gardner para su cuadrante mágico como Forrester para su ranking sitúan a Talend entre las empresas líderes (codeándose con Informatica, SAS, SAP, IBM u Oracle), y la única basada en estándares abiertos y facturando menos de 1.000 millones de euros. “Otros analistas como McKinsey van un poco más allá y señalan sobre la importancia de extender el valor del dato a toda la organización, lo que permitiría conseguir un nuevo cliente 23 veces más rápido, que se incremente su fidelidad por seis veces más, o que acabe obteniendo hasta 16 veces más rentabilidad”, añade el responsable de Talend España. “Porque gestionar y extraer valor al dato mejora el servicio al cliente, optimiza las ventas, da mayor visibilidad al negocio y facilita cumplir con la normativa vigente”.
Talend está presente en todos los sectores y tiene clientes de todos los tamaños, su split está compuesto un 40% por gran cuenta y un 60% pequeña y mediana empresa. Aunque esto se tiene que adaptar luego localmente, “porque lo que en España sería Ibex35 (más de diez usuarios de nuestra plataforma), en EEUU se trata de una pyme, por eso la licencia mínima de venta es la unitaria, aunque después hay tarifas escaladas por bloques”, apunta Álvaro Palencia. “En cuanto al modelo de venta, es de los más flexible, depende de lo que desee el cliente. Nosotros buscamos por un lado empresas colaboradoras que tengan cobertura sectorial y geográfica, pero sobre todo, que conozcan nuestro portfolio: Accenture, Capgemini, PWC, IECISA, T-System, Synergic/Telefónica, porque normalmente la compra de licencias ya está asociado a un proyecto cerrado. Pero si el cliente final prefiere una relación directa con nosotros, se la damos; o si prefiere tener sólo un único interlocutor, pues nosotros nos entendemos con su consultor”.
Talend se explica muy bien a través de sus casos de uso, aunque a la hora de nombrar referencias nacionales prevalece la confidencialidad. En todo caso, se habla de prevención del fraude para una entidad financiera al ser capaz de detectar el uso fraudulento de tarjetas basado en reglas y alarmas; integrar datos de múltiples fuentes internas como ERP y CRM para tomar decisiones en tiempo real para una teleco; lo mismo pero de datos externos para la determinación de precios energéticos; obtener calidad del dato para descargar informes de viajes de empresa con cláusula SLA; o la vista de clientes 360 para poder personalizar ofertas de una gran cadena de ropa.
Lo que pasa también a veces, es que se venden casos de éxito que luego no es todo tan fácil de conseguir. “A menudo tenemos que lidiar con las altas expectativas creadas, porque no valen todos los tipos de datos ni siempre hay una estrategia detrás. Además, estamos inmersos en una innovación sin precedentes que aumenta la complejidad de una tecnología que está en constante cambio: ‘¿debo de tirar todo lo que tengo cada dos o tres años?’ se preguntan muchos. A ello hay que añadir la explosión del volumen de datos que hay que manejar, conozco el caso real de una compañía que en diez años ha pasado de gestionar 100 GB con una base de datos propietaria en 2007 a 10 TB en 2010 con MySQL y acabar en 2016 con Hadoop y Spark gestionando 1 PB, teniendo que cambiar en cinco años tres veces de arquitectura de base de datos”.