Navegando por el accidentado camino de la IA ética

InnovaciónInvestigación y Desarrollo

José Alberto Rodríguez Ruiz, Chief Data Protection Officer en Cornerstone OnDemand, arroja luz sobre una cuestión que debe preocupar a todos, la repercusión de la inteligencia artificial y sus connotaciones éticas.

La IA está en todas partes y su potencial es increíble, pero como dice el refrán, un gran poder conlleva una gran responsabilidad. Desgraciadamente, casos como el del modo “Dios” de Uber o el de los “Juegos del Hambre” de Deliveroo con su algoritmo, ahora considerado discriminatorio, se han convertido en ejemplos infames de lo que no se debe hacer.

En todos los sectores, las organizaciones recurren cada vez más a la IA para superar los retos empresariales e impulsar su negocio, pero ¿cómo podemos asegurarnos de no ser los próximos en acaparar los titulares por razones equivocadas? ¿Dónde se encuentran los obstáculos y los escollos concretos y cómo pueden las organizaciones buscar la mejor manera de acertar? Los problemas no residen en la IA en sí misma, sino en cómo se desarrolla y utiliza.

Ser ético

En primer lugar, las organizaciones deben comprender las razones por las que la ética es importante en la IA, más allá de no recibir mala prensa.

Una de las grandes ventajas de la IA es que se utiliza para lograr un impacto a gran escala, pero eso significa que equivocarse o acertar también tendrá consecuencias generalizadas. Volviendo a los ejemplos anteriormente mencionados de Deliveroo y Uber, esos algoritmos acabaron afectando a muchos puestos de trabajo y personas. Es fundamental no olvidar que la IA tiene consecuencias humanas.

Incorporar las nociones éticas a la IA es, de hecho, el mejor medio para ayudar a prevenir los sesgos y otros riesgos. Si se siguen utilizando los mismos enfoques y procesos tradicionales, seguirán surgiendo los mismos problemas, y la discriminación (aunque sea inconsciente) seguramente también. Con una IA cuidadosamente desarrollada es posible eliminar ese sesgo humano, pero sólo si la IA es ética. No se trata sólo de una afirmación o un estudio teórico (que no me malinterpreten, también son muy importantes), sino de una herramienta para llevar a cabo la actividad diaria de forma correcta, tanto para la organización como para sus clientes y usuarios. Así de sencillo.

Identificar los puntos débiles

Uno de los mayores problemas iniciales de la IA ética es que la propia noción de lo que es “ético” es vaga y está abierta a la interpretación. Antes de que las organizaciones puedan aspirar a crear una IA ética, es necesario definir claramente su concepto de ética para garantizar que todo el mundo esté de acuerdo. También es necesario que todos estén seguros de por qué quieren desarrollar esa tecnología de IA y su finalidad. Explicar claramente por qué y cómo se va a utilizar la tecnología de IA y establecer normas también debería ayudar a evitar un posible uso indebido, como en el caso de Uber.

Convertir estos conceptos éticos en aplicaciones prácticas de la IA supone el siguiente gran reto al que se enfrentan las empresas. Es en ese momento, cuando las empresas quieren empezar a crear y desarrollar un algoritmo, es donde pueden empezar los problemas: la forma en que se construye un algoritmo es tan importante como su uso. La entrada de datos inicial y el consiguiente modelo computacional que se forme determinarán si las organizaciones obtienen el resultado previsto o, por el contrario, crean un dilema ético. Muchos algoritmos, por ejemplo, se han diseñado previamente sobre la base de datos históricos, pero esto a menudo significa que los viejos patrones pueden simplemente repetirse, continuando los mismos problemas y potencialmente la misma discriminación o sesgo.

Avanzar en los problemas del pasado

Las organizaciones tienen que poner fin a esta repetición de los mismos patrones y los mismos problemas. Una gran parte de esto se reduce si tenemos en cuenta los datos.

La IA forma sus patrones para producir procesos de realización de tareas a partir de los datos que se le suministran. Como tal, un algoritmo es tan bueno como sus datos. Si esos datos están sesgados de alguna manera, afectarán al resultado final y, una vez que se hayan establecido los patrones, la IA continuará simplemente siguiéndolos. Por lo tanto, la calidad de los datos es de suma importancia, así como entender de dónde provienen. Las organizaciones deben utilizar datos actuales y limpios y, si es necesario, limpiar los datos antes de dar cualquier paso. Al final, el algoritmo implementa esencialmente los patrones ocultos en los datos; son los datos los que hacen el trabajo pesado.

También hay un elemento clave de posible error humano que hay que tener en cuenta en esta etapa. Aunque los datos se hayan limpiado para protegerlos de posibles prejuicios o discriminaciones, es posible que los responsables de introducir esos datos y crear el algoritmo proyecten inconscientemente sus prejuicios o sesgos. El desarrollo de la IA debe abordarse con una mente abierta, sin prejuicios, para evitar la formación de patrones discriminatorios. A menudo hablamos de diversidad e inclusión en el lugar de trabajo, ¡tenemos que empezar a pensar en la diversidad y la inclusión en el algoritmo!

Incluso si las organizaciones han tomado estas precauciones con respecto a los datos que se introducen inicialmente en el algoritmo, todavía pueden surgir problemas. Las organizaciones deben crear y construir modelos para probar continuamente sus datos, y las aplicaciones de la IA deben ser analizadas y revisadas regularmente para asegurarse de que los algoritmos no repiten patrones incorrectos o aprendan mal. También hay que analizar cualquier dato nuevo que se introduzca y, a medida que más personas se relacionen con la tecnología, ésta empezará a aprender los comportamientos de los demás. Nadie quiere repetir el error de Microsoft con “TayTweets”, por lo que las organizaciones deben comprobar constantemente qué datos nuevos se introducen y qué está aprendiendo el algoritmo. Si las organizaciones no son conscientes de esto y se equivocan en los patrones, pueden ser ciegas a estas cuestiones, hasta que se conviertan en un problema mayor. Más allá de una visión y una comprensión compartidas de lo que es ético, todos los que desarrollan o trabajan con la tecnología de IA y la utilizan, desde los científicos de datos hasta los usuarios finales, necesitan tener una sólida comprensión del propio algoritmo, para poder detectar cualquier problema e identificar si va en contra de los principios y propósitos previstos.
Las organizaciones y sus esperanzas y aspiraciones empresariales sólo serán tan buenas como sus algoritmos de IA. Por ello, estos algoritmos deben desarrollarse con cuidado y reflexión, probarse con regularidad y no utilizarse de forma precipitada: la forma de utilizarlos es tan importante como la de crearlos. Por suerte para las empresas, cada vez hay más apoyo externo para crear una IA ética, como los siete principios de la IA de la UE, que conceden a los científicos de datos y a los expertos en IA un marco para hacer operativas las aplicaciones éticas de la IA. Sin embargo, en última instancia, la responsabilidad del éxito y el impacto de su tecnología de IA, y de si es alabada por su innovación o condenada por su discriminación, recae en las organizaciones individuales y en cómo desarrollan y utilizan la IA.

Un gran poder conlleva una gran responsabilidad, y no, esta cita no es original de la serie de Spiderman.

Autor

Últimos Whitepapers