La base para una IA responsable: tres claves a tener en cuenta

Con el aumento vertiginoso del uso de la IA, siguen surgiendo preguntas sobre cómo seguir unas prácticas éticas y responsables. Coincidiendo con el reciente nombramiento de España como presidente del Consejo de la Unión Europea, Madrid desempeñará un papel clave a la hora de dar forma a la regulación sobre la IA y de crear marcos de gobernanza digital fiables. El país tendrá una influencia significativa en el desarrollo de marcos que permitan el crecimiento de la innovación y que pongan a las personas y a las comunidades en el centro de la transformación digital.

La primera regulación exhaustiva del mundo en materia de IA, la Ley de IA de la UE, ocupa un lugar preponderante en estas conversaciones. Esta ley podría llegar a ser un estándar global, por lo que de esta forma se convertiría en una legislación crucial y muy debatida. El objetivo principal de esta ley será promover la confianza, la transparencia y la responsabilidad en el desarrollo de la IA y, al mismo tiempo, garantizar los derechos fundamentales y la seguridad.

Pero no se trata solo de legislar, asegurar el cumplimiento o evitar sanciones. Al apoyar la innovación responsable, las empresas podrán impulsar sus iniciativas de IA al mismo tiempo que protegen nuestra sociedad, seguridad y economía. En la práctica, esto implica que las empresas tendrán la responsabilidad fundamental de garantizar que sus productos son seguros antes de su implementación o publicación.

En este sentido, las empresas deben establecer una base que minimice los riesgos relacionados con las tecnologías de IA y de aprendizaje automático, y promuevan el uso responsable de la IA:

1. Define tu equipo

Como la IA se basa en datos, los profesionales de la privacidad se encuentran en una posición única para asumir el timón de la IA responsable en su organización y conciliar la innovación de la IA con la privacidad de los usuarios. Sin embargo, el desarrollo y el uso de la IA requieren la unión de diferentes roles para comprender, mitigar y administrar los diversos riesgos que puedan surgir.
El Marco de Trabajo de Gestión de Riesgos sobre la IA (RMF por sus siglas en inglés), publicado por el Instituto Nacional Estadounidense de Estándares y Tecnología (NIST), destaca las ventajas de atajar los riesgos de la IA junto con otros riesgos críticos; un enfoque así «daría lugar a un resultado más integrado y una mayor eficiencia organizativa». Además, la estructura de gobernanza que surgirá al unir las diferentes partes interesadas de tu empresa garantizará que se adopte un enfoque sistemático en cuanto a las decisiones relacionadas con la IA. Copyright © 2023 OneTrust LLC. Información confidencial y de propiedad exclusiva.

2. Desarrolla un inventario de IA

Haz una lista de todos los productos, funciones, procesos y proyectos relacionados con la IA y el aprendizaje automático, tanto si son internos como de fuentes externas. Desde el punto de vista de un programa de gestión de riesgos de TI o de privacidad, puedes aprovechar tus inventarios o mapas de datos existentes. También puedes comenzar por llevar a cabo un registro de actividades de tratamiento que incluya el tratamiento de información personal, además de la tecnología de IA y aprendizaje automático. La localización de datos también puede ayudar a determinar cómo van a interactuar tus sistemas de IA con diferentes categorías de datos.

3. Haz que tus objetivos se ajusten a un marco

El RMF sobre la IA del NIST tiene como objetivo proporcionar a las organizaciones que desarrollan sistemas y tecnologías de IA un marco práctico y adaptable para medir posibles daños y para proteger de ellos a las personas y a la sociedad. Comparar tus esfuerzos con un marco puede ayudarte a comprender cómo ampliar las estructuras de gobernanza o cómo crear nuevas. Por ejemplo, las preguntas sobre los riesgos de la IA se pueden integrar en los flujos de trabajo de los usuarios y en las evaluaciones existent es, que pueden tomar la forma de evaluaciones de impacto en la privacidad (EIP) o de evaluaciones de proveedores. Las políticas, los procesos y la formación también se pueden actualizar para incluir el enfoque de la IA en la organización cuando sea necesario.

En definitiva, la creación de un equipo dedicado e interfuncional, el desarrollo del inventario de IA y la adopción de un marco en el que estructurar los esfuerzos pueden minimizar los riesgos relacionados con el uso de la IA y, al mismo tiempo, garantizar que la innovación en IA siga siendo sinónimo de seguridad, confianza y protección de los derechos para todo el mundo.

Firma invitada

Nombres destacados del sector TIC opinan sobre las principales tendencias de la industria.

Recent Posts

¿Por qué ahora es el momento de invertir en 5G?

Hemos llegado a un punto de inflexión en que las empresas tienen que hacerse esta…

2 días ago

Un vistazo al 2025 en el ámbito de la gestión del dato

En esta tribuna, Bernardo Godar, vicepresidente y director general de Denodo para Iberia y Latinoamérica,…

4 días ago

QR, Whale Phishing e IA: Evolución de la Ingeniería Social

Diego León, CEO de Flameera, explica cómo el quishing, el uso de IA en whale…

2 semanas ago

Integrar con éxito la IA en la empresa: un reto al alcance

En esta tribuna, Jaime Balañá, Director Técnico para Iberoamérica en NetApp, explica cómo las empresas…

3 semanas ago

¿Cómo conseguir un entorno digital seguro para nuestros jóvenes?

En esta tribuna, Fernando Mairata, presidente de Armora y de PETEC, reflexiona sobre los riesgos…

1 mes ago

Integridad de los datos: la base de la verdadera libertad de los datos

En esta tribuna, Rick Vanover, vicepresidente de estrategia de producto de Veeam, analiza la importancia…

1 mes ago