La inteligencia artificial ha avanzado mucho desde sus inicios en la década de 1950, hasta el día de hoy, donde asistimos a la aparición de una nueva era de la IA: la IA generativa. Las empresas están descubriendo la amplia gama de posibilidades que se abre gracias a herramientas como DALL-E 2 y ChatGPT de OpenAI, y la adopción de la IA se está acelerando entre empresas de todos los tamaños. De hecho, Forrester predice que el gasto en software de IA alcanzará los 64.000 millones de dólares en 2025, casi el doble de los 33.000 millones de 2021. Aunque estas aplicaciones están contribuyendo al crecimiento del mercado de IA, agravan un problema que las empresas deben abordar de inmediato: el sesgo de la IA.
El sesgo de la IA se produce cuando un modelo de IA produce predicciones, clasificaciones o contenido basado en conjuntos de datos que contienen sesgos humanos. Si bien el sesgo de la IA no es nuevo, se está volviendo cada vez más prominente con el auge de las herramientas de IA generativa. Por ello, es imprescindible tener en cuenta las limitaciones y riesgos de la IA y cómo las empresas pueden adelantarse al sesgo de la IA asegurándose de que los científicos de datos actúen como “custodios” para preservar los datos de alta calidad.
Si no se aborda adecuadamente el sesgo de la IA, la reputación de las empresas puede verse gravemente afectada, ya que esta puede generar predicciones erróneas que lleven a una mala toma de decisiones. Asimismo, se introduce en la ecuación el riesgo de problemas de derechos de autor y plagio como resultado de que la IA se entrene con datos o contenidos disponibles en el dominio público, además de la posibilidad de generar resultados erróneos a partir de contenidos inexactos o falsos encontrados en Internet.
Los casos de sesgo y discriminación como consecuencia de la intervención de la IA son abundantes y, pese a ello, muchas empresas todavía no se preguntan cómo controlar adecuadamente la IA y qué buenas prácticas pueden implementar para ello. Por ejemplo, un estudio del NIST (Instituto Nacional de Normas y Tecnología) en Estados Unidos concluyó que la IA de reconocimiento facial suele identificar erróneamente a las personas de color. Otro estudio realizado en 2021 sobre préstamos hipotecarios concluyó que los modelos predictivos de IA utilizados para aceptar o rechazar préstamos noofrecíanrecomendacionesprecisassobrepréstamosaminorías. Larealidadesque,frentealrápido avance de estas tecnologías, es necesario adoptar un enfoque proactivo para gestionar la calidad de los datos de formación y eso está por completo en manos de los humanos.
Dada la creciente popularidad de ChatGPT y la IA generativa, y la aparición de datos sintéticos (o información fabricada artificialmente), los científicos expertos en datos deben ser los custodios de los datos. Hablamos de una cuestión que está integrada en el día a día de cada vez más compañías y, según un informe de DataRobot, más de la mitad de las empresas están preocupadas por la posibilidad de que los sesgos de la IA perjudiquen a su negocio. Sin embargo, casi tres cuartas partes de las empresas aún no han tomado medidas para reducir el sesgo en los conjuntos de datos. Ante esto, será necesario formar a los científicos de datos para que puedan conservar mejor los datos y aplicar prácticas éticas de recopilación y limpieza.
Pero la comprobación de los sesgos de la IA no es tan sencilla como otros tipos de pruebas, ya que los humanos pueden introducir sesgos inadvertidamente. Los equipos científicos de datos , por tanto, deben permanecer alerta durante todo el proceso y comprobar continuamente la existencia de sesgos. También es primordial mantener los datos abiertos a una población diversa de científicos de datos para que haya una amplia representación de personas que están analizando los datos e identificando sesgos que otros pueden haber pasado por alto.
Además, con el rápido aumento de la adopción de la IA, es fundamental que se establezcan barreras de seguridad y nuevos procedimientos para evitar posibles daños a las empresas y sus clientes. Las organizaciones deben comprometerse a probar los datos antes de desplegar cualquier modelo y a probar el modelo después de desplegarlo, pues el alcance de los sesgos de la IA es amplio y puede haber consecuencias imprevistas, a pesar de tener las mejores intenciones.
En definitiva, las empresas se esfuerzan por mantener el vertiginoso ritmo de avance de la IA, sin embargo, el momento de abordar el sesgo de la IA y sus posibles efectos negativos es ahora, antes de que el aprendizaje automático y los procesos de IA estén en marcha y las fuentes de sesgo se incorporen. Hoy en día, todas las empresas que aprovechan la IA pueden hacer un cambio a mejor comprometiéndose y centrándose en la calidad de los datos para reducir los riesgos del sesgo.
En esta tribuna, Rainer W. Kaese, director sénior de Desarrollo de Negocio de HDD de…
En esta tribuna, Enric Delgado, director de Client Engineering Team de España, Portugal, Grecia e…
En esta tribuna, Justin Murrill, director de Responsabilidad Corporativa en AMD, explica cómo la arquitectura…
En esta tribuna, Mario Carranza, especialista en observabilidad de CPO WOCU-Monitoring, explica cómo la observabilidad…
Adam Meyers, responsable de operaciones contra adversarios en CrowdStrike, explica cómo combatir las amenazas transversales…
Ana Belén González Bartolomé, Head of Manufacturing, Logistics, Energy, and Utilities para España, Portugal e…