Cada vez hay más internautas. Cada vez existen más dispositivos conectados. Y cada vez se producen más datos. El enorme volumen de contenido que se mueve de un lado a otro del planeta, y de un lado a otro de las empresas, genera enormes oportunidades de negocio por el valor de la información y del conocimiento que se puede extraer de su gestión. Hablamos del Big Data que, además de ventajas, plantea un gran reto. El trabajo con datos en una organización no consiste únicamente en recopilar datos, sino en analizarlos. Para entender mejor las entrañas de este fenómeno tecnológico, NetMediaEurope ha logrado reunir a un grupo de expertos compuesto por Iván Abad, Technical Services Manager de Commvault; Arturo Gutiérrez, Experto Database & Technology de SAP España; y Victoria Gómez, Big Data Sales Leader de IBM Europe.
Estos profesionales participaron en un encuentro online que ha estado moderado por nuestra compañera Rosalía Arroyo, redactora jefe de ChannelBiz.es. Durante la mesa redonda “Grandes volúmenes de datos para pequeñas decisiones de negocio”, el debate se fue centrando en el impacto del Big Data en las distintas tipologías de compañías y de industrias. Se ha hablado del impacto del cloud computing y los modelos as-a-service. De la introducción de la computación cognitiva. Del análisis de los procesos transaccionales. De las ventajas derivadas de profundizar en los datos. De la importancia de actuar en tiempo real para evaluar situaciones y tomar decisiones. Del valor de las redes sociales. Del desafío de Internet de las Cosas. Del Open Data. Y es que éstos y otros temas permiten valorar si se está exprimiendo el potencial del Big Data y si todas las empresas son susceptibles de aprovechar sus ventajas.
¿Qué relevancia tiene el Big Data en los negocios actuales? ¿Es igual en todas las empresas? ¿Y para todo tipo de industrias? Tanto en Europa como en España, “toda la mediana y gran empresa” se interesa por “el modelo Big Data. Está tendiendo a capturar y a obtener cada vez más información” que llega “de distintos puntos” y “que tienen que empezar a analizar”, observa Iván Abad, Technical Services Manager de Commvault. Un obstáculo conocido es que “el 93 % del tejido empresarial español es pyme”, por lo que “habrá pequeñas empresas que el proyecto Big Data ni lo toquen”, añade Abad. En este sentido, Arturo Gutiérrez, Experto Database & Technology de SAP España apunta que lo que ocurre es que hay “una creencia generalizada” acerca de que “Big Data, como implica grandes volúmenes de datos, sólo está orientado a las grandes empresas, grandes multinacionales, grandes empresas de telecomunicaciones. Y eso no es reamente así”. Para Gutiérrez muchas veces “tiene más importancia el tipo de datos” que “la cantidad” analizada. Y ahí hay oportunidad para “muchas pequeñas empresas o muchas medianas empresas”.
El directivo de SAP explica que “casi todas las empresas venden, casi todas las empresas fabrican, casi todas las empresas intercambian dinero, con lo cual al final casi todo el mundo va a necesitar un proyecto de Big Data para mejorar este tipo de procesos”. El Big Data sería “algo que afecta a todo el tejido empresarial”, a “todo tipo de empresas, grandes, pequeñas, e incluso a todas las industrias”, coincide Victoria Gómez, Big Data Sales Leader de IBM Europe, para quien este fenómeno no sólo se define “por el volumen” o “por el tipo de dato, sino también por la velocidad”. De hecho, hay veces en las que el dato queda atado al “momento en el que se genera y pierde su valor según va pasando el tiempo”, especialmente en un mercado donde los clientes “cambian mucho y muy rápidamente”. Al final, el Big Data es “transversal”, define Arturo Gutiérrez, “viene a la sociedad”. “Nos está afectando a nuestras propias vidas”, conviene Victoria Gómez. La gente desprende tanta información que las corporaciones son capaces de “generar patrones o perfiles con las que incrementar cuotas de venta o mejorar servicios”, opina Iván Abad.
¿Qué impacto provocan el cloud computing y los modelos as-a-service en la gestión de la información empresarial? “Están impactando muchísimo”, dice Arturo Gutiérrez, tanto que ahora se ha puesto en marcha “una segunda generación de proyectos de Big Data”. Gutiérrez recuerda que “Big Data no es de ahora. Big Data lleva funcionando desde hace mucho tiempo”, pero la nube funciona como “una especie de catalizador de estos proyectos” gracias a la “inmediatez”, la “flexibilidad” y el “menor coste” asociado a las arquitecturas cloud. La capacidad de “dimensionar el sistema dependiendo de tus necesidades” resulta especialmente interesante para “picos de ventas” como “los Black Fridays”, que “generan casi 1.000 veces más de datos” que “un día normal”. O para empresas con “un modelo de negocio” especial que les lleva a soportar un gran volumen de accesos “únicamente dos semanas al año”, ejemplifica Victoria Gómez.
Aquí también entra en juego la hibridez. “No puedes” obligar a un cliente a pasar todas las “aplicaciones que tiene en un entorno on-premise, de repente”, al cloud, sino que lo recomienda IBM sería “un sistema en el que coexistan” ambos modelos . Según Iván Abad, “todo el mundo tiende a modelos híbridos en cloud, principalmente porque también hay algunos sistemas que no se pueden migrar a la cloud, tipo mainframes“. Lo bueno de trabajar con Big Data es que permite “predecir” situaciones a partir de “datos antiguos, incluso con datos de backup“, eliminando sorpresas desagradables. ¿Y qué tipo de datos se están analizando hoy día? ¿Se avanza en el análisis de los procesos transaccionales? El experto en sistemas de información y Big Data de SAP indica que además de distinguir entre “nubes públicas, privadas” o “híbridas, también” hay que hacerlo entre “software as a service”, “platform as a service” e “infrastructure as a service”. Las dos últimas alternativas son las que tienen “más relevancia” para el Big Data, por tema de “potencia”, mientras que “software como servicio está mucho más orientado a temas transaccionales” en “un entorno más OLTP”.
¿Cuáles son las necesidades comunes de las empresas al enfrenarse al Big Data? ¿Trabajan sobre datos internos o recopilan información de otras fuentes, como redes sociales y bases de datos abiertas? “El nivel de madurez de los clientes”, de acuerdo con la experiencia de la Big Data Sales Leader de IBM Europe, Victoria Gómez, “es heterogéneo”. Algunos quieren “utilizar toda esa información que tienen almacenada para aprovecharla y sacar información” ahora que pueden aprovechar tecnologías “fácilmente consumibles”. Otros, “en estadios ya más avanzados”, se dirigen a fuentes externas como Twitter “para realizar análisis de sentimiento”, para “identificar patrones de comportamiento”, “de hábitos de compra o de utilización de servicios”. Y también hay empresas que han comenzado “con el análisis de sentimiento hacia la marca”. En el caso de Commvault, trabajan con compañías que “empiezan a hacer análisis de información antigua, información que está incluso residiendo en cinta o en un backup antiguo, para hacer predicciones”, cuenta Iván Abad, “de compra de infraestructura, crecimiento, bases de datos, etc. Y poco a poco nos vamos encontrando algún cliente que” analiza perfiles de “usuarios o de sus propios empleados”, que al final son sus “mayores consumidores”.
Arturo Gutiérrez, en representación de SAP, comenta que “las redes sociales te dan mucha información”, porque en ellas la gente “habla más libremente, expone más sentimientos” que en un “cara a cara” donde uno es “más racional”. Gutiérrez considera que “casi tiene más valor lo que has dicho en las redes sociales porque es más lo que quieres tú” y lo que permitirá a las marcas entregar “un producto parecido” al reclamado. Eso sí, no vale con quedarse ahí. Después hay que correlacionar opiniones con lo vendido. “Porque te puedes encontrar cosas curiosas, que es que todo el mundo habla muy de tu producto y vendes poco, porque a lo mejor tus canales o tus ofertas están dirigidas más al público tradicional” que al de internet. Es “en la interrelación y en el cruce de datos” donde radica “la potencia del Big Data”, enfatiza este profesional. Para él, Open Data también “tiene mucho valor” porque a menudo llega del “propio ciudadano, con lo cual está muy cerca de sus necesidades”. Son varias las realidades y las vías de acción. “Cada vez que entras en un proyecto Big Data”, razona Iván Abad, “no hay sólo un producto que resuelva” todo por “completo”. Consiste en “una mezcla de muchos productos, de muchas soluciones”, que hay que “poner a funcionar conjuntamente para poder obtener datos que incluso el cliente en muchas ocasiones no había ni pensado”.
¿Y qué aporta el análisis en tiempo real? ¿Cuándo se requiere? ¿Es vital? “Obviamente el análisis en tiempo real es muy importante”, enfatiza Abad, “pero hay que correlacionarlo y hay que contrastarlo con tus datos anteriores”. Sobre todo porque el dato instantáneo “no te vale para hacer un análisis real de estimaciones” de aquí “a X tiempo. En cambio”, comparándolo “con dato archivado” sí obtienes “valor”. Esto tiene que ver con que “es diferente analizar en tiempo real y actuar en tiempo real”, enlaza Arturo Gutiérrez. La clave reside en coger esos “datos que están sucediendo ahora, compararlos con históricos y actuar en tiempo real. Eso sí es fundamental”. Eso facilitará el lanzamiento de ofertas, teniendo en cuenta que “a ti te tienen que ofrecer algo en el momento” preciso en el que consumes “otra cosa relacionada” o no funcionará. Victoria Gómez añade que lo importante es “analizar en tiempo real y poner unas medidas” de carácter preventivo Esto es, “analizar y además ejecutar en tiempo real”. Por ejemplo, “¿tú cruzarías una calle sin ver?, ¿solamente pudiendo ver una fotografía que está tomada de esa calle hace dos minutos? Yo no. Prefiero ver y, además, actuar”, elige.
¿Qué aportan las plataformas de computación cognitiva al análisis del Big Data? ¿Qué cambios introducen? “La tecnología cognitiva lo que hace es aprender”, relata la responsable de ventas de IBM. “Aprende de nosotros, además entiende lo que es el lenguaje natural, con lo cual” acaba favoreciendo “el acercamiento de tecnologías Big Data” a “todas las personas”. Es decir, “democratiza el acceso al Big Data”. Es algo que ya se está produciendo con “el IBM Watson Analytics” y su propuesta de trabajo con grandes candidatos de datos, tal y como indica Victoria Gómez. “Tú pones una pregunta en lenguaje natural y él te propone cuáles son los informes más adecuados, en el layout más adecuado. Tenemos también ya IBM Watson for Social que lo que hace es analizar las redes sociales”. Gómez celebra que la tecnología cognitiva “está entrando cada vez en más industrias y va a facilitar todo lo que es esa absorción, digestión, de todos esos volúmenes de datos que se generan de forma exponencial”.
Iván Abad señala que, tras asumir la generación de nueva información “cada vez que nos conectamos”, la parte cognitiva del análisis o el hecho de que la propia “solución vaya aprendiendo”, “es el siguiente pasito”. Se trata del “paso natural que teníamos que dar”. Con este aprendizaje hay “cierto nivel de toma de decisiones que se automatizarán”, asegura. Aunque no todo. “Seguiremos necesitando de ciertos roles específicos”, como pueden ser “los data scientists“, matiza Victoria Gómez. Éstos “tendrán que seguir existiendo para” resolver determinados “problemas” que vayan surgiendo sobre la marcha o para “hacer modelos más complejos”. Lo más relevante es que esta nueva forma de enfrentarse al dato “va a acercarlo y va a democratizarlo”. Se va a conseguir “que más usuarios sean capaces de poder utilizar tecnologías de Big Data de una forma más fácil y más intuitiva para ellos”.
¿Qué desafíos conlleva la expansión del Internet de las Cosas y su red de dispositivos conectados? ¿Se recopila, se gestiona y se analiza el Big Data generado por el IoT? “El Internet de las Cosas realmente tampoco es algo nuevo, porque los datos de lo que llamamos ‘cosas’ muchas veces se han estado utilizando”, declara Arturo Gutiérrez. Pero se ha estado usando “en los entornos puramente industriales”. Las máquinas de las empresas “siempre han dado datos”, que se consultaban “para saber si funcionaban bien o funcionaban mal”. El caso es que esto quedaba relegado a “OT”, a “la parte de los sistemas operacionales”. Por tanto, “¿cuál es la verdadera revolución?”, pregunta Gutiérrez, “que se ha pasado del OT al IT, es decir, se está juntando los datos que venían de las máquinas, o de las cosas, de los sensores, con el mundo del negocio”. Y ahí, en la unión de operaciones y negocio, “ya empiezas a sacar valor”, como puede ser el “mantenimiento predictivo”.
Iván Abad ratifica que “toda la información que se estaba generando antiguamente en máquinas, en cabinas de almacenamiento, en servidores” y demás “se empieza a extender y pasa a otros sectores industriales, afortunadamente”. Lo bueno es que esto se conjuga con “parámetros de comportamiento, de inteligencia, del resto de las personas que están relacionadas con ese mundo. De ahí que haya cierta toma de decisiones que se pueda empezar a automatizar o incluso que puedas realizar tareas predictivas de mantenimiento con la reducción de costes que ello tiene”, expresa este experto. En definitiva, “los volúmenes de datos los estamos generando por un lado las personas a través sobre todo de redes sociales y toda esta forma nueva de conexión y, por otro lado, las cosas”, interviene Victoria Gómez. Son muchas las cosas conectadas en la actualidad, “y una vez que hemos empezado ya no queremos parar y queremos saberlo todo. Entonces, cada vez conectamos más cosas y sabemos más también” de ellas.
Con el avance que se está produciendo en la analítica de Big Data, ¿hay lugar al fallo? ¿O el futuro sólo estará compuesto de triunfadores? “¿Es posible el fracaso? ¡Claro! Si analizas mal, el resultado va a ser erróneo, por lo tanto te puedes equivocar”, determina el director técnico para Iberia de Commvault. Lo que hay que hacer, desde su punto de vista, es “empezar a pensar qué datos tengo que analizar y de qué manera los quiero analizar”, “con qué objetivo”. Es más, “por el camino te encontrarás que probablemente el objetivo incluso haya variado o te hayan surgido nuevos proyectos que ni tan siquiera habías pensado inicialmente”, lo que significa que “reduces la capacidad de error, pero no desaparece al 100 %”. Arturo Gutiérrez, de SAP, lo ve “justo desde el lado contrario”. Él plantea que, “si no haces un proyecto de Big Data, si no analizas los datos de Big Data, entonces tienes un 100 % de probabilidades de fracasar”.
“Yo estoy de acuerdo en que lo que es muy importante es la calidad del dato”, manifiesta Victoria Gómez. “No solamente qué dato vas a analizar”, ya que “si utilizas un dato que no tiene suficiente calidad, la información no va a ser buena y te vas a equivocar. Por otro lado, en cuanto a la tecnología cognitiva”, ésta te dará una “probabilidad” de “validez” de cada opción ofrecida, incluso fundamentando su recomendación y mostrando “en base a qué ha tomado esa decisión”. Sin embargo, va a ser la persona la que tendrá “la última palabra”, la capacidad de elección. “Al final, siempre va a haber un componente humano que va a ser el que va a tomar la decisión en base a la información que se devuelve en los sistemas”, recalca Gómez. “Siempre tiene que haber un componente que discrimine ese tipo de cosas”, “siempre tiene que haber alguien que tome una decisión” aun con ayuda, enfatiza también Arturo Gutiérrez. Siempre habrá que “condicionar las respuestas”, remata Iván Abad.
Ofrece hasta 1 millón de dólares de compensación económica en caso de incidente, con la…
Este cambio refleja los avances que se producen a nivel de infraestructura TI y el…
El evento espera reunir a 17.000 directivos, que podrán escuchar a medio centenar expertos en…
Como resultado de esta operación, ampliará sus servicios en el "bronze layer" del ciclo de…
Durante el segundo trimestre de su año fiscal 2025 acumuló 1.660 millones de dólares, la…
También incluye un SDK open source para potencia el desarrollo de aplicaciones y agentes, especialmente…