Keepler: “La adopción de IA generativa implica garantizar una revisión adecuada del contenido generado antes de su entrega”
Entrevistamos a Ramiro Manso, Head of Generative AI de Keepler Data Tech, que nos explica en detalle las capacidades de la IA generativa así como su potencial impacto en las empresas y los retos éticos a los que se enfrentan.
La AI Generativa es el tema del momento. Desde que Open AI lanzara ChatGPT, esta nueva evolución de la inteligencia artificial ocupa un espacio protagonista en la conversación en todos los ámbitos. No solo es algo que se ha quedado en el ámbito empresarial, sino que ha supuesto una democratización de acceso al uso de la IA que lo ha puesto al alcance de cualquiera a través de miles de aplicaciones, cada una para un uso específico.
Las empresas están abrumadas por esta ola, pero intentan subirse a ella para aprovechar los beneficios que puedan aportar a los objetivos de negocio. Entre las voces que lideran la conversación de la IA Generativa, encontramos a Keepler Data Tech, compañía de servicios de datos en la nube que ayuda a sus clientes a convertirse en organizaciones data-driven.
Como especialistas en datos, Keepler ve en la AI Generativa un gran potencial que hay que saber gestionar y aplicar. La rapidez con la que todo avanza alrededor de ella y la necesidad de guiar a sus clientes en este proceso de adopción, ha llevado a poner al frente de un área específica a Ramiro Manso como Head of Generative AI. Ramiro es uno de los Data Leads de la compañía que lleva liderando el área de datos desde que Keepler comenzó a operar. Ahora, tiene el reto de aterrizar la AI Generativa en la organización, crear las capacidades internas necesarias y ayudar en la implementación de este tipo de soluciones en clientes.
Hablamos con él para empezar a entender la transformación que aporta la AI Generativa a las organizaciones.
– Para aquellos que aún no están familiarizados, ¿qué es la AI generativa? ¿Cuáles son las diferencias que ofrece con respecto a la IA tradicional?
La AI generativa es una (relativamente) nueva disciplina dentro del campo de la inteligencia artificial que busca generar nuevas observaciones (texto, audio, imágenes…) en base a una petición o prompt. La diferencia principal respecto a otras disciplinas es que en casos como un modelo de ML de clasificación, lo que se busca es un criterio de diferenciación o decision boundary que separa las observaciones en clase A o B (o C, o D…).
Usando un ejemplo basado en imágenes, sería la diferencia entre entrenar un modelo de detección con fotos de gatos para que sepa identificarlos en nuevas imágenes versus entrenar un modelo de GenAI con fotos de gatos para que sepa inventar nuevas fotos de gatos.
– ¿Hasta qué punto puede la IA generativa revolucionar el tratamiento de los datos y la generación de la información?
Realmente estamos en un punto en el que lo que se evalúa es precisamente cual es la capacidad real de estos modelos a la hora de procesar la información, principalmente hablando de lenguaje natural. Crear plantillas, reescribir en diferentes tonos conversacionales, identificar elementos en el contenido… Uno de los ejemplos más simples pero más eficaces para mi es la capacidad para resumir información. He estado probando las diferentes aproximaciones que han ido apareciendo con el tiempo: LDA para topic modelling, tf-idf para frases clave en un texto, redes recurrentes para resúmenes… Esta es la primera vez que puedes decir que se está generando un resumen real de la información, como haría una persona.
El impacto de aplicar estas tecnologías al ámbito del procesado de los datos es enorme. ¡Y esto sin hablar de usarse para código de programación! Autogeneración de test, comentarios y hasta el propio código.
– Cada día que pasa vemos nuevas aplicaciones de IA generativa salir al mercado. ¿Estamos ante una burbuja en este campo o su potencial es tan real que invita a la generación de tanta oferta?
Probablemente ambas. Es una tecnología disruptiva que afecta a muchas áreas. La disciplina de machine learning más tradicional (pese a que me cueste llamarla “tradicional” y que lo haría con tantas puntualizaciones que necesitaríamos mucho más tiempo) tuvo un gran impacto en áreas de negocio a nivel de analítica predictiva y prescriptiva. En este caso estamos ante un escenario similar, pero con una barrera de entrada mucho menos técnica y con un posible impacto mucho más generalizado.
Pero no es oro todo lo que reluce. Hay que ser plenamente conscientes de que este tipo de modelos es especialmente capaz a la hora de sintetizar información, pero no significa que la comprenda. Entender qué son capacidades reales y que son espejismos será lo que separé a quienes dominen la disciplina de las víctimas del hype.
– ¿Qué casos de uso estáis identificando principalmente en las organizaciones que sean propensas al uso de esta tecnología?
Facilitar el acceso a la información mediante nuevas técnicas de búsqueda y resumen del contenido es probablemente uno de los principales casos de uso por los que una organización pueda empezar. La generación de plantillas, ya sea documentales o ya sea de ideación, en base a los requisitos es el otro caso de uso más recomendable para empezar.
Esto no significa que sean los únicos casos, pero quizás algunos de los más accesibles. Ejemplos algo más complejos podrían enfocarse a la personalización de contenidos y/o experiencias de cliente, ya sea adaptando estratégias de márketing a las características de cada persona o segmento, o en base a sus preferencias de compra. También se podrían generar informes automatizados de diferentes fuentes de datos que faciliten la toma de decisiones a los equipos internos de una compañía, permitiendo contrastar la información.
No todo tiene que ser documentación escrita. Podrías plantear el prototipado rápido de diseños gráficos, la mejora de modelos de computer vision mediante técnicas de image augmentation basadas en generación y completado de imágenes, o incluso la generación de música contextual en base al contenido de un video.
Todos estos son casos con múltiples niveles de complejidad (y viabilidad) que estas tecnologías nos permiten ahora. Uno de los retos principales es elegir la mejor forma de aplicarlas correctamente internamente en una compañía.
– A nivel de conocimiento y experiencia, ¿cómo asume una compañía como Keepler la irrupción de una tecnología como esta?
En Keepler asumimos la irrupción de tecnologías como Generative AI mediante formación interna continua y una identificación constante de tecnologías emergentes. Hacemos evaluaciones internas para comprender su potencial y las habilidades que nos hacen falta para poder aplicarla correctamente. Además, analizamos sus posibles aplicaciones en nuestro negocio y vigilamos muy de cerca los cambios rápidos en frameworks y servicios que las respaldan.
Dos de nuestros valores como compañía son la mejora continua y aportar valor, y nos guían a mantenernos firmes en nuestro compromiso de seguir innovando y ofreciendo soluciones de vanguardia a medida que avanzamos en la era de la GenerativeAI.
– Y en concreto, ¿cómo estáis integrando la IA generativa en vuestros servicios? ¿Nos podrías comentar algunos detalles?
Ante la integración de la IA generativa en nuestros servicios, nos hemos planteado una estrategia basada en responder a estas preguntas clave. En primer lugar, evaluamos qué aspectos de nuestros servicios existentes podrían beneficiarse de Generative AI en términos de precisión, rendimiento o eficiencia. Analizamos detenidamente cómo podemos potenciar y mejorar las soluciones actuales utilizando Generative AI como una herramienta adicional para optimizar resultados.
Además, exploramos nuevas oportunidades que antes no eran viables sin esta tecnología. Nos enfocamos en identificar áreas donde la generación de contenido, la personalización y la toma de decisiones basadas en datos puedan alcanzar nuevos niveles de calidad y efectividad.
– ¿Qué deberían tener en cuenta las grandes organizaciones que empiecen a solucionar casos de uso con esta tecnología?
Al comenzar a abordar casos de uso con tecnologías como Generative AI se deben tener en cuenta ciertos aspectos clave. En primer lugar, los frameworks y herramientas asociados están en constante cambio y no necesariamente están listos para producción y requiere de una evaluación correcta de su estado, potenciales problemas y limitaciones. Además, los modelos de lenguaje generativos no son deterministas (algo nada nuevo en modelos ML, semillas aparte), lo que implica la necesidad de establecer mecanismos de control de calidad y garantizar una revisión adecuada del contenido generado antes de su entrega a los usuarios.
Asimismo, las organizaciones deben considerar los riesgos asociados con los modelos de lenguaje generativos, como la presencia de sesgos y la generación de contenido inapropiado, por lo que es fundamental implementar políticas y prácticas sólidas de ética y gobernanza de IA.
Finalmente, es clave educar a los equipos internos y a los clientes sobre las capacidades y limitaciones de estos modelos para evitar la difusión (interna o externa) de información errónea o potencialmente dañina. O simplemente gestionar correctamente las expectativas de la capacidad de las tecnologías, algo con lo que toda persona que haya estado trabajando en el campo de la AI suficiente tiempo puede simpatizar.
– Otro tema candente es el de los retos éticos a los que nos enfrentamos con la adopción de la IA generativa, como el mal uso de la tecnología, la creación de fakes, la eliminación de puestos de trabajo… ¿Cuál es la realidad en este sentido a corto plazo?
Esta es una pregunta complicada, especialmente en una tecnología tan reciente y de la que aún no tenemos una idea completamente definida sobre las capacidades y limitaciones reales existentes, y cómo pueden evolucionar en el futuro.
A corto plazo, los desafíos más claros son el mal uso de la tecnología y la generación de contenido falso. Existe el riesgo de que los modelos generativos sean utilizados para crear información engañosa o manipulada (los diferentes tipos de fakes, que comentas), lo que puede tener impactos negativos en la confianza pública, la desinformación y la propagación de noticias falsas. Además, el reemplazo de ciertos puestos de trabajo por la automatización generativa también es una preocupación actual, ya sea por confiar en exceso en las capacidades de estas tecnologías, o porque la prioridad es la cantidad sobre calidad.
– ¿Y a largo plazo?
A largo plazo, es probable que estos retos éticos se vuelvan más complejos a medida que la tecnología continúe avanzando. A medida que los modelos generativos se vuelvan más sofisticados, las preocupaciones actuales relativas a temas como la privacidad se pueden ver acentuados por los avances tecnológicos. Podríamos ver algo similar en los procesos donde la toma de decisiones se haya automatizado demasiado mediante sistemas generativos. Es fundamental abordar estos retos de manera proactiva, implementando marcos éticos y regulaciones adecuadas para salvaguardar el uso responsable y seguro de la IA generativa.