El derecho al Digital Trust no esperará a 2026
¿Cómo prepararse en protección de datos en la era de la inteligencia artificial para el 2026?
Con motivo del Día Europeo de la Protección de Datos, celebrado el pasado 28 de enero, Paradigma Digital ha analizado la situación actual y los retos que enfrenta la protección de datos en el contexto de la Inteligencia Artificial (IA) generativa. A pesar de que la nueva ley europea de Inteligencia Artificial no entrará en vigor hasta 2026, los consumidores y profesionales no esperan, exigiendo el derecho al Digital Trust, confiabilidad en las herramientas y seguridad en los servicios digitales.
La Delegada de protección de datos en Paradigma Digital, Carmen Troncoso, destaca la importancia de generar confianza desde ya: “Las personas y las empresas necesitan confiar en que la IA generativa y los servicios digitales son seguros y confiables. La ley busca desarrollar un ecosistema de confianza mediante un marco jurídico, pero las empresas no pueden esperar hasta 2026. Deben adelantarse e incorporar principios de protección de datos en el desarrollo de sus productos para ganarse la confianza de los usuarios”.
Desarrollo de la Ley de Inteligencia Artificial
La ley europea de Inteligencia Artificial se aplicará por fases, culminando en su totalidad en 2026. Se prohíben prácticas consideradas riesgosas, como calificaciones sociales basadas en IA por autoridades públicas y sistemas que evalúan la fiabilidad de las personas en función de su comportamiento social. Además, se prohíbe el uso de sistemas de identificación biométrica remota en tiempo real en espacios públicos, a menos que haya excepciones limitadas.
Desafíos y aspectos clave para empresas
Paradigma Digital destaca seis aspectos clave que las empresas que buscan avanzar en temas de IA generativa deberían incorporar desde ahora:
- Gestión de Riesgos: Implementar un sistema que abarque todo el ciclo de vida del sistema.
- Transparencia y Comunicación: Garantizar la transparencia y la comunicación de información a los usuarios.
- Vigilancia Humana: Establecer la vigilancia humana durante el uso de sistemas de alto riesgo.
- Precisión, Solidez y Ciberseguridad: Asegurar precisión, solidez y ciberseguridad, con sistemas de aprendizaje continuo que corrijan sesgos y sean resistentes a intentos no autorizados de alteración.
- Desarrollo de una IA Ética: Evitar sesgos y garantizar que la tecnología se utilice de manera ética y no discriminatoria.
- Fiabilidad de la IA: Asegurar que la IA sea fiable para garantizar la precisión y utilidad de los sistemas.
Estos aspectos son cruciales para evitar riesgos como opacidad, sesgo o autonomía parcial. La norma europea proporciona directrices y guías detalladas para abordar cada uno de estos aspectos clave.
Retos Futuros
Aunque la ley aborda la gobernanza de datos y garantiza derechos de protección de datos, se enfrenta al desafío de conjugar la seguridad y los derechos humanos con el impulso a la innovación para desarrolladores europeos. Estos desafíos serán explorados detalladamente en futuros análisis.
En definitiva, la protección de datos y la Ley de Inteligencia Artificial europea son temas cruciales en la actualidad, y las empresas deben anticiparse a su entrada en vigor para garantizar la confianza de los usuarios y cumplir con los estándares éticos y de seguridad requeridos.