Stephen Brobst, de Teradata: “Big Data empieza a dar problemas de agotamiento”
Teradata, una de las grandes empresas que proporcionan soluciones tecnologías para trabajar con grandes volúmenes de información, deja atrás el Big Data para adentrarse en el Deep Learning. Stephen Brobst, su CTO, se encarga de esparcir la buena nueva.
Como ya va siendo una tradición, un año más por estas fechas recibimos la visita en petit comité de Stephen Brobst, CTO de Teradata desde hace casi 20 años, reputado profesor y evangelizador del Big Data. Aunque este término ya empieza a quedarse viejo y comenzamos a experimentar con casos reales de Deep Learning que nos aguardan a la vuelta de la esquina: la transacción financiera fraudulenta bloqueada que no hemos podido finalizar porque hemos seguido la misma ruta de compra que 23.000 intentos anteriores realizados por otros tantos clientes de tarjeta con el mismo patrón; el coche autoconducido que decide en milisegundos si debe atropellar a la señora mayor que está en la acera antes que a la madre que cruza por donde no debe con su carrito del bebé; el cóctel ideal de fármacos combinado con la terapia precisa para ese tipo de cáncer que te habría salido dentro de 17 años según tu mapa genético…
“No es magia, sino inteligencia de datos. Llevamos más de veinte años con tecnologías basadas en almacenamiento y minería, pero es ahora cuando el Big Data empieza a dar problemas de agotamiento, por el sobredimensionamiento y la falta de correlación en series cada vez más largas, y que aún deben ser interpretadas por humanos”, asegura Brobst.
Sin embargo, en los dos últimos se han combinado ciertas innovaciones que han hecho posible la explosión del machine learning y que se agrupan bajo el paraguas de las arquitecturas multi-tenant en la nube, las tecnologías multicapa, la ciencia de la computación mapeada como redes neuronales y los procesadores GPU que hasta ahora solo se veían para videojuegos. “Ahora los programas pueden leer los datos aprendiendo de sí mismos y escriben la siguiente línea de código de manera más rápida y económica, y lo que es mejor, con menos errores que los humanos”.
Inteligencia artificial, machine learning y deep learning no son términos sinónimos, pero todos hablan de un futuro cada vez más cercano donde la automatización y los datos serán más importantes aún. Las empresas van a necesitar conocer dónde van a aportarle más valor, para no dispersarse en interminables cálculos que no le lleven a ningún sitio. “Recolectar todo tipo de datos no es práctico, como tampoco es práctico estar preguntando todo el rato y estropear la experiencia al usuario. En realidad, lo que menos importa a la hora de sacar partido de los datos es el tamaño, pero si tienes muchos datos a los que no sacas partido, no tienes Big Data, lo que tienes es un gasto inútil muy grande”.
Tampoco todas las empresas van a poder beneficiarse y aprovechar estas tecnologías: para empezar, solo serán efectivas y de resultados robustos en aquellas series que analicen millones de datos, y estas solo están en manos de las más grandes. Además, necesitan de mucho ‘expertice’ en cuanto a experiencia y conocimiento para ofrecer una buena visibilidad y transparencia del dato procesado, y se adolece de suficientes científicos de datos para cubrir la demanda. Se dieron ejemplos como Google, Netflix, eBay en empresas nacidas digitales, pero también destaca la buena labor de sectores europeos como la industria (Volvo), los servicios financieros (Lloyds) o el retail (El Corte Inglés). No así las administraciones públicas, que no están preparadas porque dependen demasiado de normativas y regulaciones diferentes en cada país.
“En cuanto a las pymes, la única posibilidad está en la generalización de protocolos y algoritmos abiertos o en la modalidad de pago por uso, y en los datos gubernamentales y estadísticos (limpios de metadatos privados, claro) puestos a libre disposición; pero habrá que saber trabajárselos bien para ajustarlo a las necesidades de cada negocio. Porque si no aprenden a usar los datos masivos, desaparecerán”.
Una de las cosas significativas que hizo Obama, del que fue asesor Brobst en su primer mandato, fue la iniciativa Open Data, que permitía a todas las agencias del gobierno publicar todos sus datos gratuitamente, a menos que viole la privacidad y seguridad. Y luego dejar que el mercado innove con eso, creando nuevos negocios, por ejemplo con información pública del tiempo o de las matriculaciones de vehículos. “Así se crearon muchos trabajos, innovación, algo muy poderoso. Los gobiernos no deben tratar de controlar la innovación, sino que deben facilitarla, poniendo las ideas, los datos, las herramientas y luego alejándose de allí”.
La falacia del libre albedrío
Nos gusta sentirnos seres libres, pero lo cierto que la mayoría de las acciones que realizan los humanos o bien son por imitación, o bien no están meditadas. Todo lo contrario que las máquinas, que necesitan estar programadas para ejecutar una orden. “Pero las máquinas no pueden pensar, esto no es Holywood. Pueden hacer las cosas más rápido y barato que los humanos, y sobre todo más seguras, pero no pensar. En la conducción, por ejemplo, los humanos toman decisiones en segundos, frenar, acelerar, subir de marcha, cambiar de carril… y muchas de ellas ni se piensan, son reacciones impredecibles: y se cometen errores. Realmente, a día de hoy, lo más peligroso para los conductores humanos son los otros conductores”, dijo el directivo de Teredata.
El dilema del tranvía (aquel que indaga sobre si es mejor salvar cinco vidas a costa de la propia) funciona muy bien cuando se aplica a los demás, pero cuando nuestro coche se guíe por unos protocolos preinstalados en los que se hayan cerrado todas las acciones ‘if-then-while-else’, igual no te gusta la solución propuesta. ¿Deben todos los coches acogerse a las mismas reglas, vía gubernamental, o cada fabricante puede escoger algún perfil de soluciones para facilitar sus ventas? Y si son los conductores los que eligen, ¿pueden modificar con una rueda el grado de compromiso moral y ético? Y si es la máquina la que va aprendiendo y elije por sí misma resolver el dilema en función de su aprendizaje, ¿podrá fiarse del comportamiento de otras máquinas si ya no están todas programadas bajo los mismos patrones?
“La diferencia de la Inteligencia Artificial respecto al Deep Learning es que tiene que haber estado programada y replicar una conducta. En la vida real el humano no tiene elección, de una manera u otra toma una decisión, aunque sea errónea. Una máquina no debería tomar decisiones que no han sido programadas, trabaja con premeditación. Y esto es una dificultad. En las industrias reguladas, como la banca, tiene que estar todo bien descrito y explicadas las relaciones, de tal manera que las recomendaciones sean sencillas de entender y fáciles de interpretar para la toma de una decisión”.
Sin duda, lo que todos queremos es tomar la postura correcta. En la antigua Grecia, cualquier decisión tan trascendental como casarse o invadir un país requería de la intervención de un oráculo. Hoy, el oráculo se llama Big Data. Y sus derivaciones como el Deep Learning son la clave de futuro hacia donde tienen que apuntar aquellos que busquen potenciar la Inteligencia Artificial en su empresa. “Esta tecnología está aportando valor a la predicción de la demanda, del fraude y del fallo”, apunta Brobst. “Permiten establecer patrones que ayudan a dar valor al dato”.
Pero el empleo de pitonisa no es el único en peligro. Habrá que aceptar que las máquinas harán muchos de los trabajos actuales, y contentarnos que los puestos más creativos y de interés seguirán en manos de los humanos. “No hacen bien cosas que los humanos llevan tiempo haciendo, como leer un libro o tomar decisiones, pero sí para cosas mecánicas y repetitivas. Cuando los albores de la revolución industrial pasó lo mismo, en los talleres textiles del Reino Unido cuando los primeros industriales introdujeron máquinas de vapor: los obreros se amotinaron, la emprendieron a golpes y las destruyeron. Luego vinieron demandas de empleos mejor remunerados que exigían pensar. Hoy es el mismo miedo”.
Claro que Brobst prácticamente nació en la universidad. Sus padres, estudiantes en Standford, acudieron a su hospital a dar a luz en 1962. Ya de niño, deslumbraba con el ajedrez y fundó varios clubes juveniles. Luego se graduó de Ingeniería Eléctrica y Computación en Berkeley en sólo tres años y se le otorgó el premio de ingeniería Bechtel cum laudem; marchó a la costa Este a hacer el postgrado en el MIT sobre procesamiento paralelo de alto rendimiento, y luego un par de MBA en Harvard y Sloan School. En seguida comenzó a trabajar en empresas como IBM o HP. Fundó tres o cuatro start-ups dedicadas a bases de datos, servicios de almacenamiento y comercio electrónico que fueron adquiridas enseguida por gente como IBM o NCR. Finalmente, en 1999 NCR fundó Teradata y le puso como jefe de operaciones; en 2007 la empresa se independizó, y siguió en su puesto.
Con la llegada de Obama en 2008, fue nombrado para el consejo asesor de Ciencia y Tecnología (PCAST) en el grupo de trabajo de I+D sobre Redes y Tecnología de la Información (NITRD); Obama fue el primer presidente de los EEUU que nombró un CIO en su gabinete. En 2014 fue clasificado por ExecRankas como el CTO #4 en los EEUU por su influencia, de entre un grupo de 10.000, (detrás justo de los de Amazon, Tesla e Intel). Sólo dos años antes estaba en el #14.
Con todo esto, volviendo a lo analizado por el directivo de Teradata, el mayor desafío de cara al futuro no es precisamente tecnológico. “La clave está en educar a las personas, y crear una cultura de cambio donde la gente use los datos para tomar decisiones mucho más que con su estómago. Mucha gente aún toma decisiones basada en su olfato, la sensación de hambre, el instinto. Por eso, necesitamos crear una cultura donde la gente tenga acceso a los datos, los use para tomar decisiones meditadas”. Y pueda decir que es libre.