Dotar de inteligencia a los datos, el siguiente gran reto de las organizaciones
La inteligencia artificial (IA) no es una tecnología reciente. Sus orígenes se remontan a los años 50 del pasado siglo. Pero es ahora, gracias a los avances que se están produciendo en materia de computación y almacenamiento de los sistemas de TI, principalmente bajo el modelo de cloud computing, cuando se está viviendo una verdadera revolución a la hora de automatizar procesos y extraer el valor de los datos prácticamente en tiempo real.
Para hablar de la situación actual de la IA en las empresas, NetMediaEurope ha reunido a dos expertos de la industria: Jesús Pintado, Principal Business Development de Keepler Data Tech, y Gerardo Murias, Senior Sales Engineering Southern Europe de Automation Anywhere.
Estos profesionales son los dos protagonistas del encuentro online “Dotar de inteligencia a los datos, el siguiente gran reto de las organizaciones”. En su conversación, moderada por la periodista Mónica Valle, aclaran si todos los avances que se le atribuyen a la inteligencia artificial son reales y si las empresas están aprovechando los algoritmos disponibles para tomar decisiones de peso sin necesidad de recurrir al componente humano.
Definiciones (y no definiciones)
Desde la concepción del test de Turing, mucho se ha hablado de la inteligencia artificial. Y no siempre como se debería. “Muchas veces se define, en mi opinión, erróneamente”, reprueba Gerardo Murias, Senior Sales Engineering Southern Europe de Automation Anywhere. Sería incorrecto identificarla “como algoritmos bajo un diagrama de flujo predefinido” o como “algoritmos de respuesta que han sido programados por código. Eso no es inteligencia artificial”, descarta Murias.
Para este experto, “lo que establece la diferencia entre un sistema de inteligencia artificial” y lo que simplemente se puede considerar “un algoritmo de programación es la capacidad que ese sistema tiene de aprender por sí mismo”, tanto “a nivel de red neuronal” como “a través de aprendizaje supervisado”. A la hora de acotar el término, Murias prefiere centrarse en “el problema que resuelve” la inteligencia artificial, que sería su rasgo definitorio.
Una definición válida para Jesús Pintado, Principal Business Development de Keepler Data Tech, es “todo aquello que hace que las máquinas tengan un comportamiento parecido al de la mente humana”. De aquí parten “tres elementos” característicos.
“El primero es el aprendizaje, claramente. Es decir, un programa muy sofisticado que no aprende no es inteligencia artificial”, sentencia Pintado. En segundo lugar, está “la percepción”, porque “inteligencia artificial también es aquello que hace que las máquinas puedan entender un texto o identificar una imagen o transcribir un documento” con “servicios cognitivos”.
“Y el tercer componente que definiría la inteligencia artificial es la cognición” o el hecho de que alguien, con unos “datos”, puede “tomar una serie de decisiones para conseguir unos resultados”, explica Jesús Pintado. “Es inteligencia artificial aquello que, a partir de unos datos, es capaz de hacer una inferencia o de identificar algo que no funciona bien”, “un patrón”, “un siguiente paso” o que sirve para “predecir lo que va a pasar”.
La “inteligencia artificial es el concepto que engloba todas las tecnologías encaminadas a conseguir esos objetivos”, termina el directivo de Keepler Data Tech en esta reflexión sobre terminología. Por ejemplo, engloba “machine learning o deep learning”, donde hay que “monitorizar permanentemente” la “efectividad de los modelos” y “reentrenarlos”, ya que “un modelo de deep learning no es algo que permanezca estático”.
Y llegaron los datos
En este escenario, “los datos son clave, porque una de las bases de la inteligencia artificial es el aprendizaje. Y, para que algo aprenda, le tienes que suministrar muchos datos”, razona Jesús Pintado. “El modelo de desarrollo cuando hablamos de inteligencia artificial es que el programador crea un algoritmo y le suministra muchísimos datos para que ese algoritmo sea capaz de procesarlos y aprender”. Todo esto quiere decir que, “sin datos, no tenemos inteligencia artificial”.
“Muchos de los algoritmos que se utilizan hoy día ya existían hace 50 años”, pero por aquel entonces “no había un volumen suficiente de datos para entrenar” modelos o “una capacidad de computación suficiente” para que la tecnología funcionase, según compara Pintado. “Ahora nos encontramos ante la tormenta perfecta”: “tenemos los algoritmos, tenemos la capacidad de computación, que viene generada fundamentalmente por la nube” y “tenemos un montón de datos”, que son “la materia prima para la inteligencia artificial”.
Eso sí, “necesitamos muchos datos, pero necesitamos datos de calidad”, advierte este directivo, con el que concuerda Gerardo Murias al decir que “no vale cualquier dato”. El representante de Automation Anywhere desvela que “el 80 % del trabajo de un ingeniero de software, de un científico de datos”, no es otro que “la limpieza de los datos. Con lo cual, el tema de la cantidad” parece “capital, pero el tema de la calidad es todavía más importante”.
“De hecho”, destaca Murias, “a nivel empresarial está habiendo un auge de empresas que a lo único a lo que se dedican es a proporcionar esos datos”. Y también “hay profesiones en auge” como la de “etiquetadores de datos”. Esto es así porque “la calidad de los datos influye no solo en el trabajo que tú hagas, sino en la estrategia a medio y largo plazo de tu empresa”. Con “un buen modelo de datos”, te podrás “anticipar a las decisiones de tus clientes”.
Grado de adopción
Las estadísticas actuales no engañan. En Europa, “el 80 % de las empresas consideran prioritaria la incorporación de la inteligencia artificial en su negocio”, sin embargo, solo “el 8 % están utilizando” esta tecnología. Así lo recuerda Jesús Pintado, que observa “un gap todavía muy importante en cuanto a lo que quiero hacer y lo que estoy haciendo” por parte de las organizaciones. Además, muchas de las que ya se han lanzado se encuentran en fases preliminares con “pruebas de concepto” o “pilotos”.
En cualquier caso, el viaje hacia la inteligencia artificial ya “ha empezado” y se antoja “imparable”. Pintado valora que en España “la estrategia de adopción ahora es mucho más aterrizada”, identificando casos de negocio y aportes reales de beneficio. “Todavía queda camino por recorrer”, matiza, “pero sí es cierto que, pasito a pasito, vamos avanzando”. Por ejemplo, “las empresas están incorporando científicos de datos” a sus plantillas.
Gerardo Murias también cree que nuestro país “está abordando las iniciativas de una manera más pausada”. Tampoco hay que olvidar la “diferencia grande” que existe en comparación con “países tipo Estados Unidos”, primero “en lo referente al timing” y después en “la parte técnica”. El gigante norteamericano cuenta con “perfiles muy predefinidos” y “especializados”, desde “matemáticos y físicos para la parte de diseñar los algoritmos” a “data engineers para la parte de diseñar los data lakes”.
La clave para triunfar “es saber qué quieres hacer. Si tú estás en una empresa tienes que valorar cuáles son las iniciativas existentes, qué es lo que la inteligencia artificial puede hacer por ti y luego, adaptándolo a tu situación nivel empresarial, ver qué puedes utilizar. Y, sobre todo, definir de antemano el business case”, “el retorno de la inversión” y “lo que quieres conseguir”, relata Murias. Pero nunca “hacerlo por que tu competidor lo está haciendo” también.
La analítica unificada y la automatización
La analítica unificada se plantea como la siguiente evolución en el tratamiento de la información, “precisamente por el auge de la inteligencia artificial” y por el gap que existía “entre los sistemas gestores de bases de datos” y “en sistemas gestores de inteligencia artificial en analítica predictiva”, cuenta Murias. Lo que se intenta es “aunar los dos campos para juntar una estrategia no solo de almacenamiento de datos, sino de limpieza” y “procesamiento” para lograr “una ventaja competitiva brutal”.
“Es importante aplicar una capa de servicios para que la analítica unificada sea una realidad”, añade Pintado, que lamenta que en “muchísimos casos” haya “modelos de datos desarrollados por los equipos de científicos de las organizaciones” que “no escalan porque no se realiza una aplicación de la analítica unificada real. Es decir, para nosotros la visión de analítica unificada pasa por ayudar a las organizaciones a productivizar esos modelos”.
Otro aspecto destacado es la automatización basada en inteligencia artificial, protagonista, en palabras de Gerardo Murias, de “un crecimiento increíble”. Al igual que ocurre con la inteligencia artificial, “la automatización no es algo nuevo”. Lo que pasa es que se había dejado algo olvidada “la parte de automatización de procesos de negocio. Ahí es donde RPA” (robotic process automation) y, “posteriormente el tema de intelligent process automation con cognitive process automation y la utilización de inteligencia artificial para añadirle una capa extra a procesos de RPA, ha experimentado un crecimiento increíble”.
Murias dice que “es algo muy específico orientado a resolver problemas concretos y, desde ahí”, se puede “escalar a otro tipo de trabajo como añadir una capa de inteligencia artificial a algo que ya está funcionando”. Aquí importa conocer “las tendencias para intentar adaptarse”.
Más allá de buscar el valor de la inteligencia artificial en la automatización a través de los RPAs, Jesús Pintado anima a “integrar procesos que ya están incorporando RPAs”. Pintado explica que “en algunos procesos de negocio existen determinados parámetros que son más automatizables” y permiten añadir componentes “de cognición y de percepción de la inteligencia artificial”. Al final, lo que se consigue es “eliminar tareas repetitivas”, “incrementar la eficacia” de los procesos y “conectar esos procesos con otros”.
Aplicación en la atención al cliente
Uno de los campos donde es posible aprovechar el potencial de los datos y la inteligencia artificial es la atención al cliente. Una buena estrategia empresarial que combine todos estos factores marcará “la diferencia entre una empresa que pierde clientes o una empresa que los está ganando precisamente porque el soporte que se está dando” “no solo resuelve, sino que se anticipa”, tal y como determina Gerardo Murias.
¿Y cómo se consigue una buena estrategia? Trabajando “con los datos de una manera ágil” para que “una persona a nivel interno que esté lidiando con quejas de clientes, o con incidencias, sea capaz mediante sentiment analysis de saber con anterioridad a tener una llamada cuál es el histórico de ese cliente”. Los empleados deberían abordar durante una llamada las tareas repetitivas “mediante un pequeño robot”, “un doble clic”, “una ejecución de teclas”… al tiempo que se recopilan datos. Unos datos que se pueden “aplicar a predicciones” con “un robot atendido”. Paralelamente también está el tema de los “chatbot”.
Aparte del “impacto positivo” en “atención de incidencias”, la inteligencia artificial aporta una “visión 360” con la que las organizaciones pueden “gestionar a sus clientes de forma mucho más personalizada y efectiva”, señala Jesús Pintado. Hay casos de uso como “ayuda en la transcripción de llamadas en el call center, la posibilidad de analizar el sentimiento o medir la relación que tienen tus clientes contigo a través de redes sociales, es decir, qué opinan de ti cuando no están contigo”.
Y, “en un mundo ideal, no solamente mejorar tus interacciones con tus clientes cuando llaman a tu call center para transmitirte una incidencia, sino prevenir esas incidencias”, imagina Pintado.
Todo esto hay que hacerlo con orden, insiste este ejecutivo, “para evitar la paradoja de que después de una inversión brutal mis KPIs de gestión o mis factores de éxito con mis clientes no han mejorado porque simplemente no estoy tocando las teclas adecuadas”. El especialista señala que, “muchas veces, la superabundancia de datos que no están correctamente tratados” acabará teniendo “justo el impacto contrario” al deseado.