La base para una IA responsable: tres claves a tener en cuenta

Con el aumento vertiginoso del uso de la IA, siguen surgiendo preguntas sobre cómo seguir unas prácticas éticas y responsables. Coincidiendo con el reciente nombramiento de España como presidente del Consejo de la Unión Europea, Madrid desempeñará un papel clave a la hora de dar forma a la regulación sobre la IA y de crear marcos de gobernanza digital fiables. El país tendrá una influencia significativa en el desarrollo de marcos que permitan el crecimiento de la innovación y que pongan a las personas y a las comunidades en el centro de la transformación digital.

La primera regulación exhaustiva del mundo en materia de IA, la Ley de IA de la UE, ocupa un lugar preponderante en estas conversaciones. Esta ley podría llegar a ser un estándar global, por lo que de esta forma se convertiría en una legislación crucial y muy debatida. El objetivo principal de esta ley será promover la confianza, la transparencia y la responsabilidad en el desarrollo de la IA y, al mismo tiempo, garantizar los derechos fundamentales y la seguridad.

Pero no se trata solo de legislar, asegurar el cumplimiento o evitar sanciones. Al apoyar la innovación responsable, las empresas podrán impulsar sus iniciativas de IA al mismo tiempo que protegen nuestra sociedad, seguridad y economía. En la práctica, esto implica que las empresas tendrán la responsabilidad fundamental de garantizar que sus productos son seguros antes de su implementación o publicación.

En este sentido, las empresas deben establecer una base que minimice los riesgos relacionados con las tecnologías de IA y de aprendizaje automático, y promuevan el uso responsable de la IA:

1. Define tu equipo

Como la IA se basa en datos, los profesionales de la privacidad se encuentran en una posición única para asumir el timón de la IA responsable en su organización y conciliar la innovación de la IA con la privacidad de los usuarios. Sin embargo, el desarrollo y el uso de la IA requieren la unión de diferentes roles para comprender, mitigar y administrar los diversos riesgos que puedan surgir.
El Marco de Trabajo de Gestión de Riesgos sobre la IA (RMF por sus siglas en inglés), publicado por el Instituto Nacional Estadounidense de Estándares y Tecnología (NIST), destaca las ventajas de atajar los riesgos de la IA junto con otros riesgos críticos; un enfoque así «daría lugar a un resultado más integrado y una mayor eficiencia organizativa». Además, la estructura de gobernanza que surgirá al unir las diferentes partes interesadas de tu empresa garantizará que se adopte un enfoque sistemático en cuanto a las decisiones relacionadas con la IA. Copyright © 2023 OneTrust LLC. Información confidencial y de propiedad exclusiva.

2. Desarrolla un inventario de IA

Haz una lista de todos los productos, funciones, procesos y proyectos relacionados con la IA y el aprendizaje automático, tanto si son internos como de fuentes externas. Desde el punto de vista de un programa de gestión de riesgos de TI o de privacidad, puedes aprovechar tus inventarios o mapas de datos existentes. También puedes comenzar por llevar a cabo un registro de actividades de tratamiento que incluya el tratamiento de información personal, además de la tecnología de IA y aprendizaje automático. La localización de datos también puede ayudar a determinar cómo van a interactuar tus sistemas de IA con diferentes categorías de datos.

3. Haz que tus objetivos se ajusten a un marco

El RMF sobre la IA del NIST tiene como objetivo proporcionar a las organizaciones que desarrollan sistemas y tecnologías de IA un marco práctico y adaptable para medir posibles daños y para proteger de ellos a las personas y a la sociedad. Comparar tus esfuerzos con un marco puede ayudarte a comprender cómo ampliar las estructuras de gobernanza o cómo crear nuevas. Por ejemplo, las preguntas sobre los riesgos de la IA se pueden integrar en los flujos de trabajo de los usuarios y en las evaluaciones existent es, que pueden tomar la forma de evaluaciones de impacto en la privacidad (EIP) o de evaluaciones de proveedores. Las políticas, los procesos y la formación también se pueden actualizar para incluir el enfoque de la IA en la organización cuando sea necesario.

En definitiva, la creación de un equipo dedicado e interfuncional, el desarrollo del inventario de IA y la adopción de un marco en el que estructurar los esfuerzos pueden minimizar los riesgos relacionados con el uso de la IA y, al mismo tiempo, garantizar que la innovación en IA siga siendo sinónimo de seguridad, confianza y protección de los derechos para todo el mundo.

Firma invitada

Nombres destacados del sector TIC opinan sobre las principales tendencias de la industria.

Recent Posts

Tendencias en almacenamiento HDD para 2025, una perspectiva completa

En esta tribuna, Rainer W. Kaese, director sénior de Desarrollo de Negocio de HDD de…

6 días ago

IA generativa: cinco razones por las que lo más pequeño puede ser más inteligente

En esta tribuna, Enric Delgado, director de Client Engineering Team de España, Portugal, Grecia e…

1 semana ago

Pensando en pequeño para pensar en grande: la arquitectura modular de AMD impulsa la sostenibilidad

En esta tribuna, Justin Murrill, director de Responsabilidad Corporativa en AMD, explica cómo la arquitectura…

1 semana ago

Observabilidad: La herramienta de la que todos hablan…

En esta tribuna, Mario Carranza, especialista en observabilidad de CPO WOCU-Monitoring, explica cómo la observabilidad…

2 semanas ago

Cómo combatir los ataques de los Estados-Nación y de los ciberdelincuentes: trabajando desde dentro de la amenaza

Adam Meyers, responsable de operaciones contra adversarios en CrowdStrike, explica cómo combatir las amenazas transversales…

2 semanas ago

El impacto de la IA generativa en las cadenas de suministro de la industria manufacturera

Ana Belén González Bartolomé, Head of Manufacturing, Logistics, Energy, and Utilities para España, Portugal e…

3 semanas ago