Thoughtworks: “la depuración en torno a la calidad del dato es un proceso continuo”

Fausto de la Torre desempeña un papel crucial como Jefe de modernización empresarial, plataformas y Nube para Thoughtworks en Europa. Además, ostenta la posición de Director y es miembro del Consejo Asesor de Tecnología Global de la empresa.

Con una destacada trayectoria, Fausto aporta una amplia experiencia en asesorar y liderar a equipos multidisciplinarios y líderes técnicos. Su enfoque se centra en ofrecer soluciones sostenibles mediante la construcción de nuevos productos digitales y la modernización de sistemas heredados. Su visión estratégica y su capacidad para abordar desafíos tecnológicos han contribuido significativamente al posicionamiento de Thoughtworks como referente de pensamiento en el desarrollo tecnológico.

¿Qué es Thoughtworks?

Thoughtworks es una empresa global de consultoría con presencia en 17 países y más de 40 oficinas en todo el mundo. Cotizando en la bolsa de Nueva York, la compañía informó ingresos globales superiores a 1.000 millones de dólares el año pasado. Su enfoque abarca estrategia, diseño e ingeniería de software, abordando desde la definición estratégica hasta la construcción de soluciones y productos.

Con cuatro líneas de servicio, Thoughtworks se centra en la transformación digital, la experiencia del cliente y diseño de productos, la data e inteligencia artificial, y la modernización empresarial, plataformas y computación en la nube. Esta última línea se especializa en resolver problemas internos, modernizando sistemas tecnológicos y procesos para permitir a las empresas adoptar nuevas tecnologías y generar valor. Thoughtworks, con 30 años en el mercado, se destaca como líder de pensamiento en la industria tecnológica, influyendo en conceptos y tendencias. La empresa ha escrito aproximadamente 120 libros basados en la experiencia de su personal, marcando la pauta en el desarrollo tecnológico.

– ¿Cómo ha evolucionado Thoughtworks desde que aterrizasteis en Europa en 2017?

Iniciamos nuestras operaciones en Barcelona con un cliente en Alemania, con el objetivo inicial de ofrecer servicios al resto de Europa desde esta ubicación. Sin embargo, a medida que nos introducimos más en el mercado español, identificamos las necesidades de los clientes y empezamos a aprovechar las oportunidades del mercado local. En estos años, hemos trabajado con diversos clientes, desde empresas del Ibex 35 hasta nuevas startups, y hemos experimentado un notable crecimiento en nuestra operación. En 2017, éramos un equipo de diez personas, y actualmente somos un equipo de 400. Esto evidencia las crecientes demandas de este mercado.

Continuamos proporcionando servicios a Reino Unido, Alemania, Holanda y otros países, pero también nos enfocamos significativamente en los clientes locales aquí en España. Una ventaja distintiva de operar en España en el ámbito del desarrollo de software es que, a diferencia de otros modelos donde se diseña localmente y se envía offshore para el desarrollo, nosotros trabajamos en un modelo más distribuido. España tiene la particularidad de contribuir tanto a otros mercados como al desarrollo de su propio mercado local. Trabajamos en colaboración con India, China, Sudamérica, y otros lugares, creando así una combinación única.

La madurez tecnológica y el aumento de la competencia digital en España en los últimos años nos ha permitido mantenernos relevantes. Ocupamos un espacio crucial en la industria al ayudar a las empresas a generar ventajas competitivas a través de herramientas digitales. Cuando una empresa busca capturar más mercado mediante touchpoints o productos digitales para mejorar las experiencias del cliente, intervenimos proponiendo estrategias diferentes y realizando ajustes en la arquitectura, ejecutándolos a medida que avanzamos.

– ¿Cuál es el enfoque de Thoughtworks en España?

En términos generales, puedo destacar que nuestro enfoque actual en España se centra específicamente en la modernización empresarial para crear organizaciones más efectivas, lo que denominamos “Engineering Effectiveness”. En un momento de la economía actual, marcado por la contracción y la recesión, las empresas buscan hacer más con menos recursos. Durante años, hemos trabajado en desarrollar “Engineering Effectiveness”, que se trata esencialmente de construir organizaciones de ingeniería y tecnología digital más eficientes y efectivas, minimizando desperdicios y modernizando tecnologías para una mayor agilidad y aprovechamiento de recursos.

Otra área clave es la de plataformas de datos e inteligencia artificial, con énfasis en la innovadora GenIA. Esto aborda cómo hacer que los procesos sean más eficientes, capturar nuevos canales de valor y mejorar los ingresos para las empresas. Sin embargo, es importante destacar que no todo se reduce a GenIA o a elementos llamativos; para habilitar estos avances, se requieren datos y, para ello, plataformas internas modernas que permitan el uso en tiempo real y de manera eficiente. Así, nuestras dos principales áreas de enfoque son la ingeniería y aplicaciones de modelización empresarial, y las plataformas de datos e inteligencia artificial, que son altamente demandadas y receptivas en el mercado.

El Radar Tecnológico

– ¿Con qué propósito nace vuestro Radar Tecnológico?

Esta iniciativa tiene más de 15 años, y recientemente lanzamos la edición 29. Publicamos este radar dos veces al año, a veces tres, pero generalmente cada seis meses. Es importante destacar que no es un estudio de mercado al estilo de Garner o Forrester; es una guía sesgada por la experiencia de nuestros empleados, que son alrededor de 12,000 en todo el mundo. Recopilamos sus opiniones sobre las tecnologías que están utilizando diariamente, y un grupo de 15 líderes tecnológicos senior, incluyéndome a mí, refina esas ideas para crear la publicación.

El Radar Tecnológico se divide en cuatro anillos, que representan la madurez y la adopción de las tecnologías. Las más maduras y listas para el uso empresarial están en el anillo más cercano, seguido de las tecnologías que recomendamos probar. Las menos probadas pero prometedoras están más arriba, y las desaconsejadas están en el último anillo.

En la última edición, los temas clave fueron el desarrollo de software asistido por inteligencia artificial, la medición de la productividad del desarrollador, los Large Language Models (LLM’s), y la madurez en las soluciones de entrega remota. La asistencia de la inteligencia artificial a los desarrolladores, como CoPilot, fue destacada. Además, hubo debates sobre la posibilidad y relevancia de medir la productividad del desarrollador. Otro tema importante fue la explosión de modelos de lenguaje grandes y su evolución hacia herramientas más especializadas. Por último, la adaptación a prácticas más eficientes en el trabajo remoto, combinando asincronía y sincronía, fue un enfoque crucial.

Estos temas reflejan las tendencias actuales en tecnología y guían nuestras discusiones en el radar. Es un esfuerzo por capturar la experiencia práctica y ofrecer recomendaciones basadas en la realidad de nuestros equipos en todo el mundo.

– Al revisar la estructura del Radar Tecnológico, observo la categoría “Resistir.” ¿Puedes profundizar en por qué se elige “resistir”?

Exactamente, se trata de “resistir”. ¿Y por qué “resistir” en lugar de “evitar”? La decisión se basa en una discusión en inglés, donde se utiliza el término “hold”. Cuando realicé la primera traducción del radar al español, inicialmente lo interpreté como “evitar” debido a cierta conceptualización. Sin embargo, lo que queremos transmitir es la idea de analizar detenidamente. Hay casos muy específicos en los que esa tecnología puede ser útil, pero son tan particulares que, en términos generales, parece más probable que cause perjuicios en lugar de los beneficios buscados. A menudo, puede parecer una solución atractiva, pero en realidad no lo es. Así que se trata de resistir la tentación de adoptar esa dirección, analizando todos los aspectos de manera muy cautelosa. Podríamos decir “no lo toques”, pero expresarlo de esa manera sería demasiado categórico.

IA, LLM’s y OpenSource

– Considerando la clara tendencia hacia la adopción del código abierto en los últimos años, que anteriormente era más específico de cada empresa, pero ahora, con plataformas como GitHub, muchas empresas se dedican al código abierto. ¿Crees que en algún momento veremos una inteligencia artificial abierta y común dedicada en exclusiva a la programación?

Creo que ya estamos viendo algunos casos de esto. LlaMa de Meta, por ejemplo, realizó lo que se conoce como un “fork”, es decir, abrió una versión propia. En algún momento, creó Open LlaMa, un modelo de código abierto. Personalmente, creo que es posible. Como siempre digo, mi bola de cristal está dañada, y no puedo predecir el futuro en estas cuestiones. Sin embargo, lo que podemos hacer como actores en este espacio es analizar cómo evolucionan las tendencias en periodos cortos y hacia dónde se dirigen. Estamos aún en un momento muy inicial en el ámbito de la Inteligencia Artificial Generativa (GenIA). Se habla de pasar del “acto uno” al “acto dos”, donde en el primero se desarrollaron herramientas más generales y ahora estamos viendo soluciones específicas que generan valor de inmediato. Aunque es un terreno primario, notamos que muchas piezas se están moviendo. Observo movimientos en torno al código abierto, y creo que el colectivo humano generará más valor, similar a lo que sucedió con el código abierto.

En cuanto a las herramientas, ahora, más que la programación en sí, la relevancia radica en los datos. Por ejemplo, ChatGPT, entrenado con todo el internet y datos propios, demuestra la importancia de tener datos específicos. A medida que las herramientas se vuelven más específicas, se requieren datos más precisos, y estas entidades suelen ser las organizaciones y empresas que poseen esa información específica. Las empresas, especialmente en consultoría, encuentran su valor diferencial en la gestión de su conocimiento. Por lo tanto, visualizo cómo estas herramientas evolucionarán hacia soluciones más específicas, utilizando el conocimiento contextual para generar mejores resultados en lugar de depender de un conocimiento general. Aunque los datos pueden ser propietarios, veo que las soluciones algorítmicas se apoyarán en el código abierto.

– Hablando de los datos que alimentan a todas estas inteligencias artificiales y los grandes modelos de lenguaje, háblame sobre la calidad del dato y su aplicación en distintos modelos.

La calidad del dato es fundamental para la creación de modelos eficientes, ¿verdad? Cuando nos referimos a modelos como ChatGPT, que tienen billones de neuronas conectadas en una red neuronal artificial, la depuración en torno a la calidad del dato es un proceso continuo. Sin embargo, en situaciones más específicas, la calidad del dato desempeña un papel aún más crucial, como en el caso de Harvey, un agente de inteligencia artificial diseñado para asistir a abogados en la navegación de las leyes. La calidad que requieren las redes neuronales es un factor determinante en la eficacia de los modelos resultantes. Aunque pueda parecer algo de bajo nivel, esto representa una de las principales limitaciones para las organizaciones al adoptar estas herramientas. Es por esto que persisten con el uso de soluciones generales, ya que enfrentan desafíos para obtener datos de calidad y asegurar su integridad.

La desconexión entre los productores y consumidores de datos dificulta la implementación de un ciclo de retroalimentación continua para mejorar la calidad. Surge así un concepto crucial: ¿cómo gestionar la calidad del dato en entornos tan heterogéneos y distribuidos como los actuales? Introducimos un concepto que hemos acuñado, posiblemente familiar para los expertos en tecnología: “Data Mesh”. Esto representa un nuevo enfoque en Business Intelligence y, a través de esta técnica, se redefine completamente cómo se manejan los datos. Implica nuevas formas de gobierno y garantía de calidad del dato, marcando un cambio de paradigma en la gestión de datos.

Tendencias Futuras

– Aunque hayas dicho que tu bola de cristal estaba rota, te voy a preguntar sobre tendencias futuras, ¿alguna tecnología que vaya a irrumpir de aquí a seis meses o un año?

Recibo muchas preguntas de este tipo, y hay periodistas que me han preguntado: “¿Qué va a pasar de aquí a cinco años?”. Es como imaginar que el iPhone lleva 15 años ahora mismo. ¿Quién se iba a imaginar en el 2008 el cambio sustancial que tuvo el mundo después de cinco años, no? Entonces, ahora incluso el ritmo de la aceleración de estos cambios es mucho más rápido. Entonces, si bien la bola de cristal a largo plazo está rota, creo que hay cosas que se vuelven evidentes.

GenIA: ¿es hype o no? Es algo que pasará de moda o no. Puede que muera. Hay una posibilidad remota de que esto muera. Sin embargo, cuando analizamos los datos, vemos que en el tiempo en el que GenIA, desde un punto de vista de venture capital, nada más de inversión en startups. En el tiempo que ya ha recibido más de 1 billón de dólares. Es muchísimo menos el tiempo en el que GenIA recibió esa cantidad de dinero en el que el Software as a Service recibió ese dinero cuando fue venture capital. Entonces, si tú te ves en el ciclo económico donde los inversores están poniendo tanto dinero en tan corto plazo, eso va a generar un movimiento en la economía de que van a necesitar ese retorno de la inversión, de que van a seguir invirtiendo otros porque llamarán la atención de otros, se va a generar más trabajo alrededor de esto y se buscarán formas de comenzar. Que pueden morir o sea, no quita esa posibilidad. Lo dudo, realmente lo dudo, pero las señales lo están diciendo de que esto va para largo, al menos en los próximos seis meses. En un año veremos mucho movimiento alrededor de la especialización de esto y cómo pueden jugar, no?

Que no pasó lo mismo con el metaverso, que se vio un poco desplazado por estas tecnologías, lo que tuvo su auge y antes de que apareciera el GPT parecía que ese era el futuro. Con todo lo remoto y demás. Sin embargo, se escondió. No sé qué pasará si es que recobrará cosas, pero lo que sí veo es en relación a inteligencia artificial generativa y el quantum computing, que va a comenzar también a generar. No, todavía es disrupción. No está en momentos muy tempranos donde la adopción es demasiado cara, cosas por el estilo, pero ya se comenzarán a ver algunos movimientos empresariales en combinar estos dos, encontrar estos dos mundos.

– ¿Puedes ampliarme tu visión sobre la computación cuántica?

Es un cambio de paradigma total en la forma en que hacemos las cosas. Se basa en la probabilidad en lugar de ser determinista, ¿verdad? Para darte un ejemplo sin entrar demasiado en detalles, en una computadora actual, cuando le preguntas cuánto es uno más uno, te dirá que es dos. En cambio, en una computadora cuántica, cuando haces la misma pregunta, te dirá que hay un 99.9% de posibilidades de que sea dos. Ese es el cambio. La computación cuántica es eficaz para problemas basados en la probabilidad, pero no es tan eficiente para problemas deterministas.

Donde realmente destaca es en cuestiones de probabilidad, como en la inteligencia artificial y las redes neuronales. Como poseedor de un máster en Inteligencia Artificial y Data Science, al estudiar estos conceptos, me di cuenta de que se basan en estadísticas básicas. Utilizan puertas y salidas de probabilidad de información que se mueven constantemente. Son sinapsis muy básicas que operan a nivel de probabilidad.

En este ámbito, hemos enfrentado el desafío de procesar rápidamente todas estas neuronas. Hemos recurrido al uso de tarjetas de vídeo con un mejor procesamiento, entre otras cosas. Sin embargo, el nivel de procesamiento de una computadora cuántica a nivel probabilístico es enormemente superior. La velocidad es inconcebible, y esto cambiará drásticamente la forma en que manejamos problemas probabilísticos. Actualmente, hablamos de billones de neuronas conectadas como un número abrumador. Quién sabe lo que sucederá cuando las computadoras cuánticas lleguen, será como los inicios de la inteligencia artificial generativa, ¿no?

Antonio Adrados Herrero

Recent Posts

Fujitsu lanza una IA que piensa de forma autónoma y colabora con humanos

Fujitsu Kozuchi AI Agent se ofrecerá a través de la plataforma Fujitsu Data Intelligence PaaS.

26 mins ago

Los dispositivos TOUGHBOOK se certifican con Red Hat Enterprise Linux

De momento han sido certificados los modelos TOUGHBOOK 55mk3 y TOUGHBOOK 33mk4.

1 hora ago

Carmen Boronat, nueva CEO de la consultora Cloud District

El objetivo de esta compañía, especializada en productos digitales, es ayudar a las organizaciones combinando…

2 horas ago

Appian elige a Estefanía Vázquez como vicepresidenta de servicios financieros para Iberia y Latinoamérica

Entre sus cometidos están supervisar la implementación de proyectos y el desarrollo de iniciativas de…

2 horas ago

Los españoles están dispuestos a pagar más en Black Friday y Navidad para ayudar al pequeño comercio

Así lo afirma un 71 % de los consumidores encuestados por GoDaddy. Hasta una cuarta…

3 horas ago

¿Cuáles son los retos de la Smart City?

El desarrollo de la Smart City en España es crucial, ya que 4 de cada…

4 horas ago