HPE: “Lo más complicado en machine learning es conseguir que los procesos hablen entre ellos. Pero también lo más divertido”
Entrevistamos al creador y máximo responsable de HPE Haven OnDemand, Fernando Lucini, un español afincando en Cambridge experto en Big Data e Inteligencia Artificial. Tiene claro que las máquinas podrán dar respuesta a cualquier pregunta formulada por el ser humano.
Fernando Lucini, CTO de Big Data en Hewlett Packard Enterprise, posee un extenso bagaje en materia de Big Data e Inteligencia Artificial. Afincado en Cambridge, llegó a este cargo tras la absorción de Autonomy por parte de HP en 2012, momento en el que comenzó a dar vida a un proyecto de computación cognitiva que el fabricante ya comercializa con el nombre de HPE Haven OnDemand. Silicon ha tenido acceso a Lucini para que nos cuente en qué consiste y qué puede suponer para cualquier tipo de industria.
– Para entrar en materia, ¿Qué es Haven OnDemand?
Se trata de un conglomerado de productos muy potentes que aplican machine learning a problemas, muchos de ellos a nivel de texto, vídeo y audio, imágenes… Ayudan a automatizar muchos procesos alrededor de estos datos y ayudan a la gente a crear aplicaciones inteligentes, con mucha riqueza. Es una plataforma que creé yo desde cero. Su objetivo es permitir a los desarrolladores generar aplicaciones para sus negocios que hagan uso de esta tecnología sin necesidad de que la diseñen desde cero, así los plazos de desarrollos se acortan enormemente.
– Por tanto, Haven OnDemand funciona como una API
Sí, aunque la definición de API en la industria es muy genérica. Para nosotros es una tecnología que permite abstraer funciones complejas que llevan mucho tiempo de desarrollo. Así, nuestros socios y clientes pueden utilizarla sin necesidad de saber cómo funciona internamente pero conociendo qué es lo que puede hacer.
Además, era necesario abrir el proceso para que fuera lo más democrático posible. Ofrecemos la posibilidad de que los desarrolladores paguen solamente cuando hagan uso de estos algoritmos y por el tiempo que lo estén ejecutando.
Si ellos ganan, nosotros también. Si no lo hacen, nosotros tampoco. Así es cómo nació Haven OnDemand.
– ¿Cuántas APIs están disponibles en la actualidad?
En este momento son unas 60 pero son solo las primeras que hemos creado. Están enfocadas a la creación de aplicaciones de contexto, con riqueza de datos. Sirven para adquirir datos, extraer valor, guardarlos… de esta forma es posible hacer preguntas sobre ellos o simplemente aplicarlos, mostrarlos en una aplicación. Hemos pasado un año y medio en fase de beta abierta, en modo freemium para que los desarrolladores pudieran darnos su feedback y mejorar los algoritmos. De hecho organizamos 40 o 50 hackatons tanto corporativos como públicos para entender correctamente nuestra misión de simplificación, de abstracción. Después de este proceso estamos en disposición de lanzarlo al mundo, con precios por uso.
– Hablas principalmente de reconocimiento de voz, análisis de imágenes, ¿Qué tipo de empresas pueden utilizar esta tecnología para sus negocios?
Los ejemplos más ‘sexys’ son el procesado de imágenes, vídeo, audio, pero también existe la aplicación de machine learning sobre texto. Esa es la base de todo al fin y al cabo. Se trata de una nueva categoría en modo on-demand para un gran número de industrias: defensa, electrónica, farmacéutica, banca, mucha banca… aquellos sectores en los que se maneja un gran volumen de datos humanos y donde existe la necesidad de utilizarlos para vender, dar soporte, realizar mantenimiento, etc. con sus clientes o partners.
Un ejemplo de ello que me gusta poner siempre son los sistemas de analítica para correos electrónicos. La idea es procesar los emails, extraer toda la información sea cual sea su nivel de almacenamiento, incluyendo los archivos adjuntos y generar gráficos en base a patrones marcados. Estos procesos, especialmente diseñados para cantidades ingentes de información basada en email, ya se podía realizar antes pero los desarrolladores se volvían locos y perdían mucho tiempo en el diseño de tales aplicaciones.
Ahora, como parte de Haven OnDemand, disponemos de tres o cuatro APIs que permiten realizar estas tareas, por lo que los clientes tan sólo tienen que cogerlas de nuestro repositorio y utilizarlas cada vez que necesiten procesar, analizar y mostrar la información de sus cuentas de correos. Todo ello sin necesidad de pagar enormes cantidades de dinero cuando tal vez solamente necesitaban utilizarlo una o dos veces.
– Parece una tecnología pensada para grandes empresas, pero ¿está también indicada para pymes?
Claro, esa es la idea del servicio. Obviamente en HPE contamos con grandes clientes, pero en España ya tenemos más de 13.000 profesionales que han accedido y llamado a nuestras APIs, muchos de ellos sin necesidad de haber pagado por su uso. Es el caso de los ‘hackatones’ que organizamos nosotros o alguno de nuestros socios. Y aquí estamos viendo desarrollos realmente interesantes en base a las APIs, aplicaciones muy sensatas que posteriormente podrán comercializar. Ahí nosotros nos llevamos nuestra parte de los ingresos relativa al uso de las APIs. Todos ganamos con ello.
– ¿Qué importancia tiene HPE Haven on Demand dentro del portfolio de soluciones de la compañía? ¿Crees que es la plataforma que va a liderar el mercado de machine learning, big data?
Hewlett Packard Enterprise es lo suficientemente grande como para no tener que tomar decisiones de ese tipo. Podemos elegir bastantes cosas que ofrecer a nuestros clientes. Hay muchas alternativas en el mercado. Toda la plataforma Haven está en Azure, por ejemplo, pero en realidad es independiente de la nube en la que está alojada. De hecho, está escrita nativamente para nuestra Helion por lo que aseguramos a nuestros clientes la mayor eficiencia si se usa bajo esta plataforma basada en estándares abiertos. La diferencia es que Helion se encuentra bajo la modalidad privada e híbrida, de ahí que también publicáramos Haven OnDemand en la plataforma pública Azure para dar una alternativa a los que buscaban ese modelo.
Intentando responder a tu pregunta, lo que realmente diferencia nuestro servicio de otros es que no verás en el mercado otra apuesta para aplicar machine learning ofreciendo APIs por encima. Próximamente, las integraciones de Haven OnDemand con Helion van a tener mucho sentido, van a convivir juntas de una forma fantástica.
En la parte de Big Data es cierto que tenemos soluciones estrella como IDOL y Vertica que son utilizadas todos los días por muchas empresas. Pero Haven OnDemand permite tener accesibilidad a la funcionalidad de esos productos en forma de autoservicio, con lo cual es una combinación perfecta… Y todo ello sin hablar de lo que hacemos con nuestros servicios profesionales. En este sentido no se trata de un tira y afloja entre departamentos, al final todos remamos en la misma dirección, que es hacer negocio y ayudar a nuestros clientes.
– A nivel interno, de todos estos desarrollos que estáis llevando a cabo con las APIs para el análisis de imágenes, reconocimiento de voz, texto, indexado, búsqueda… ¿Cuál ha sido la parte más complicada, la que más quebraderos de cabeza os ha generado?
Para cada uno de estos procesos tenemos un gran equipo de profesionales especializados. Pero, efectivamente, lo más complicado de todo es conseguir que se hablen entre las propias APIs, que se entiendan, que puedan interactuar juntos. En cierta forma cada API es un contenedor, así que lo más difícil ha sido conseguir que un cliente pueda hacer uso de una tecnología, después coger otra y que entre ellas puedan comunicarse e intercambiarse los datos procesados para dar una respuesta concreta a sus necesidades. Al mismo tiempo ha sido lo más divertido, conseguir que todas las APIs sean flexibles, elásticas, que hablen entre ellas para generar procesos más complejos.
– Y sin necesidad de intervención humana…
Eso es. Sin intervención humana. La plataforma completa, a nivel operacional, la gestionan tres personas. Muchos otros hacemos otras cosas, pero la idea era automatizarlo todo lo máximo posible. Es la única forma de desarrollar un producto de cara al futuro. Nosotros enseñamos a estos contenedores a hablar entre ellos, a que generen un diálogo, y el resultado de este proceso es lo que denominamos ‘worker’, que está listo para funcionar prácticamente sin configuración previa y sin que el ser humano intervenga.