Hace unas semanas, medios y redes sociales se veían invadidas por titulares tipo “Facebook cierra ‘chatbots’ que crearon un lenguaje secreto”, otros hablando de “una inteligencia artificial que había «cobrado vida»”, “dos robots conversaban y tuvieron que desconectarlos” o, incluso, “la IA de Facebook crea su propio lenguaje en un escalofriante anticipo de nuestro potencial futuro”. Titulares que muchos usuarios acompañaban de comentarios refiriéndose a Skynet, la IA que toma conciencia de sí misma en Terminator e intenta exterminar a los humanos.
La profecía parecía cumplirse, o al menos insinuarse en un primer paso hacia este escenario que tantas veces han reflejado cine, series y literatura con mayor o menor grado de catastrofismo: ¡las máquinas son capaces de hablar entre ellas! ¡Con su propio lenguaje! ¡A saber qué habría pasado si Facebook no las apaga!
Nada más lejos de la verdad; o, por lo menos, nada más locamente interpretado. Como muchos de esos titulares u otros similares explicaban luego correctamente, la conversación que habían desarrollado los dos agentes se había producido en el marco de un trabajo del Facebook Artificial Intelligence Research o FAIR, en el que un grupo de investigadores trataba de entrenar a bots, mostrándoles primero mediante una serie de modelos de negociaciones entre humanos y luego haciéndoles conversar, para que, además de mantener diálogos, fueran capaces de aprender a negociar.
Para ello, se les atribuía a cada uno una serie de objetos simbólicos con distinto valor, con la misión de que llegasen a intercambiarlos entre sí con el mayor beneficio posible. En algunos de los diálogos se emplearon distintos mecanismos, como el aprendizaje por refuerzo. Es en este en el que se produjo, en una negociación entre dos bots, una “divergencia del lenguaje humano”, citando el informe.
En concreto, se explica que este modelo “está arreglado, dado que averiguamos que actualizar los parámetros de ambos agentes -durante el aprendizaje reforzado- llevaba a divergencia del lenguaje humano”. La versión del escrito para el blog de ingenieros de la compañía completaba esto, simplificando toda la explicación técnica posterior del informe explicando que se había llegado a esta desviación “dado que los agentes desarrollaron su propio lenguaje para negociar”.
“Acabo de regresar del CVPR y encuentro mi feed de Facebook y Twitter explotando con artículos describiendo escenarios apocalípticos y catastróficos, con investigadores de Facebook desconectando agentes IA que inventaron su propio lenguaje”. El que esto escribe es Dhruv Batra, uno de los investigadores del trabajo, que explica que aunque esto pueda sonar inesperado o alarmante a gente no familiarizada con el tema, la idea de estos elementos conversando “es un subcampo bien establecido de la inteligencia artificial”, y aclara que no se trata de una desconexión, si no que se debe a un cambio de parámetros del experimento. Que los bots interactuasen tenía una misión concreta. Una vez estudiada, a otra cosa. Esto es: no los apagaron porque hubieran creado un lenguaje secreto o pudieran conspirar, sino porque habían cumplido su cometido.
Batra denomina la cobertura mediática que lleva a estos comentarios “clickbaity”, refiriéndose al tipo de titulares-llamada que buscan conseguir visitas, aún a coste de irregularidades informativas. Más allá de evidenciar la tendencia al clickbait, las noticias también daban buena muestra de otra realidad: el alarmismo, tanto en medios como entre los lectores, sobre hacia dónde puede llevar la inteligencia artificial. Alarmismo que viene generado por diversos factores: desconocimiento, influencia de la ciencia ficción, mezcla de conceptos o, de nuevo, por titulares sensacionalistas que luego no se leen con cuidado (o no se desarrollan correctamente).
No, no es que la inteligencia artificial no tenga peligros, que sí que los hay. Pero también es un tema que se presta a muchas elucubraciones y noticias, o lecturas, tremendistas. Un poco en esta línea se enfrentaban recientemente Mark Zuckerberg y Elon Musk. En un vídeo en directo a través de su perfil en Facebook, el fundador de la red social respondía a los comentarios de un usuario sobre la inteligencia artificial explicando que es “optimista”, pero que la gente (entre la que, por alusiones, englobaba a Musk), “es pesimista y trata de fomentar estos escenarios catastróficos… Simplemente, no lo entiendo. Es realmente negativo y de alguna manera creo que es bastante irresponsable”. A esto, el propio Musk respondía en Twitter, diciendo que ha hablado con él y que “su comprensión sobre el tema es limitada”.
Vehículos autónomos, reconocimiento por voz o facial, bots en sus variantes de chatbots comerciales o de asistentes virtuales, automatización de determinadas tareas… Estos son solo algunos de los usos más conocidos de la inteligencia artificial, aún para los que no son especialistas en el tema. Están a la mano de cualquiera, y así cualquiera lee los titulares y opina sobre el tema. Así, la polémica en redes sociales entre Zuckerberg y Musk bien podría resumir la mayor parte de las posturas en lo que a los avisos sobre la inteligencia artificial se refiere: los que opinan que hay un riesgo real e inmediato y los que le restan importancia, achacando incluso al otro bando ese tremendismo que luego plasman titulares como los ya citados. Y a los dos grupos se les puede reconocer su parte de razón.
La discusión sobre los posibles riesgos de la IA puede parecer un tema de hoy en día, dado su auge, pero en realidad tiene tantas décadas como su desarrollo. Su resonancia actual viene en gran parte motivada por una carta abierta de varios investigadores y personalidades relacionadas con el sector de principios de 2015. En ella apoyaban un artículo titulado “Prioridades de investigación para una inteligencia artificial beneficiosa y robusta”, en el que los investigadores Stuart Russell, Daniel Dewey y Max Tegmark proponen una serie de objetivos a corto y largo plazo en este campo. Entre los firmantes, el propio Elon Musk, Stephen Hawking, Steve Wozniak y unos 8.000 expertos más.
El artículo, publicado en la edición de invierno de la revista de la Asociación para el Avance de la Inteligencia Artificial, la AAAI, explica que “hay un amplio consenso de que la investigación en IA está progresando ampliamente, y que su impacto en la sociedad se va a incrementar. Sus potenciales beneficios son enormes, dado que todo lo que la civilización tiene que ofrecer es un producto de la inteligencia humana; no podemos predecir qué podremos lograr cuando esta inteligencia se magnifique por las herramientas que la IA puede proveer, pero la erradicación de las enfermedades y la pobreza no son indescifrables”, se apunta. “Debido al gran potencial de la IA, es importante investigar cómo aprovechar sus beneficios evitando posibles peligros”.
Al centrarse en los puntos que reclaman mayor investigación, el escrito sirve también como una guía de alerta de los riesgos potenciales. Una de las ideas centrales en todo el artículo es la de que la IA no se desvíe de los intereses del ser humano. “Nuestros sistemas IA deben hacer lo que queremos que hagan”. No, no se trata de un escenario en el que la inteligencia artificial tome conciencia de sí misma y decida en su propio beneficio. Más bien se trata de advertir sobre la posibilidad de que realicen alguna acción no deseada por el ser humano al no definir bien sus tareas o sus posibilidades.
El director de Microsoft Research Labs, Eric Horvitz, y Thomas G. Dietterich, uno de los pioneros en el campo del machine learning, denominan a este tipo de supuestos el caso “El aprendiz de brujo”, como la historia de este aprendiz que ordena a una escoba que haga su tarea, llevar un cubo de agua, sin controlar la magia necesaria para ello. El ejemplo adaptado al mundo actual es el de un coche autónomo al que se le pide que nos lleve a un destino lo más rápido posible. En un escenario literal, el vehículo no parará en consideraciones como límites o controles de velocidad, señales y otros conductores o peatones.
Es un extremo, sí, pero sirve para destacar la necesidad de imponer una serie de instrucciones correctas y de que la IA sepa “analizar y comprender cuando el comportamiento que un humano está solicitando va a ser juzgado como ‘normal’ o ‘razonable’ por la mayoría de la gente”, como Horvitz y Dietterich destacan.
La relevancia de definir bien los objetivos de la inteligencia artificial, y de que estén alineados con los valores humanos, es lo que el profesor de la Universidad de Berkeley Stuart Russell, uno de los autores del artículo sobre prioridades, denomina “el problema de alineación de valores”. Russell lo ejemplifica en su charla TED “3 principios para crear una IA más segura” vinculando todo lo anterior, al poner el caso de una máquina a la que se le da una orden sencilla, como traer un café, pero que puede llegar a la conclusión de que debe desactivar su botón de apagado para que nada le impida nunca traer el café.
A lo que se resumen estos ejemplos es que el peligro no viene tanto de la mano de una inteligencia artificial repentinamente malévola o que tenga una existencia aparte del ser humano, sino implacablemente eficiente, que hará lo que sea para cumplir con sus objetivos, hasta el punto de pasar por encima de nuestros propios intereses. O, en un giro aún más dramático, una IA a la que no poder desconectar.
Otro de los posibles riesgos, sin duda de los que más se ha advertido públicamente, es el incremento en la desigualdad o el desempleo. Desde la carta abierta de prioridades en IA se enfatiza la necesidad de optimizar su impacto económico, mitigando estos efectos adversos e incluso abogando por la creación de políticas que los gestionen. También lo mencionan Dietterich y Horvitz, defendiendo la necesidad de un trabajo multidisciplinar que integre a profesionales de esos dos campos, economía y política.
Esta preocupación se está perfilando ya en cifras concretas, aunque es difícil estimar qué parte de las pérdidas de trabajo se vinculará directamente con la inteligencia artificial y cuál será debido a otras tecnologías. Hay que tener en cuenta otros factores, como la posibilidad de que parte de estos profesionales terminen por ser reubicados en puestos de nueva demanda. Así las cosas, el Instituto de Estudios Económicos recoge datos de la OCDE que estiman que en España, la automatización pondrá en riesgo un 12% de los puestos de trabajo en aproximadamente una década. En Reino Unido y Estados Unidos, la consultora PwC estima en el 30 y el 38% los trabajos en riesgo por la automatización.
Al hablar de la necesidad de investigar sobre legalidad y ética, el artículo de Russell, Dewey y Tegmark aborda el tema de las armas autónomas, anotando que deben plantearse cuestiones como si deben permitirse, en qué grado y quién las controlará de hacerlo o qué implicaciones puede tener su uso. Este tema ha saltado de nuevo a la palestra de la mano de otra carta abierta. Recogida por el Future of Life Institute, la misma organización que daba voz al escrito sobre prioridades de la investigación en IA, la “Carta abierta al Convenio de las Naciones Unidas sobre Ciertas Armas Convencionales” une a fundadores y CEOs de cerca de 100 compañías de inteligencia artificial y robótica para solicitar al organismo la prohibición del desarrollo de este tipo de armamento.
En 1939, al comienzo de la II Guerra Mundial, Albert Einstein advertía a Franklin D. Roosevelt de que Alemania había descubierto una vía mediante el uranio para fabricar armas de gran potencial dañino, haciendo que el presidente de Estados Unidos lanzase el Proyecto Manhattan y, con él, las bombas nucleares. Ni se dirigen a un gobierno en concreto ni estamos en un ambiente internacionalmente bélico, pero la alerta de estos expertos bien podría equipararse a la de Einstein en lo que se refiere al salto cualitativo que supondría para la carrera armamentística el no frenar estas tecnologías.
“Las armas autónomas letales amenazan con convertirse en la tercera revolución en la guerra”, avisan, con “armas que déspotas y terroristas pueden usar contra poblaciones inocentes, y armas que pueden ser hackeadas para comportarse de formas no deseables”. Los firmantes solicitan a las autoridades que “busquen la forma de protegernos a todos de estos peligros”. “Una vez que se abra la caja de Pandora, será difícil cerrarla.” El tono inequívocamente urgente de este texto no deja lugar a dudas: este es un riesgo cercano, y grande, de uno de los usos que se le puede dar a la inteligencia artificial.
¿Elon Musk o Mark Zuckerberg? ¿Debemos preocuparnos entonces por los riesgos que entraña la IA o mantener un moderado optimismo, desdeñando titulares alarmistas? Quizás, después de todo lo expuesto, lo más ajustado sería decir que más vale mantener una saludable preocupación porque el desarrollo de la inteligencia artificial vaya a la par de la investigación en sus potenciales (y actuales) riesgos. Porque puede que no lleguemos a enfrentarnos a Skynet, pero tampoco querremos convertirnos en un sobrepasado aprendiz de brujo. Ni que en unos años estudien a los firmantes de la carta a la ONU como los nuevos Einstein.
Bienvenido a un nuevo episodio del podcast semanal Silicon Pulse, un espacio en el que…
De los 942,1 millones de dólares que ingresó en el tercer trimestre, 900,3 millones corresponden…
“En 2024 se ha registrado un crecimiento exponencial en los ciberataques, con empresas de todo…
Durante su trimestre más reciente acumuló un total de 35.100 millones de dólares.
Durante su ejercicio fiscal 2024 mejoró un 9 % los ingresos totales subyacentes, por encima…
Ha estrenado oficinas en Zaragoza, está presente en el Parque Tecnológico Walqa y tiene previsto…