Los puntos débiles de la propuesta de regulación europea sobre inteligencia artificial
Cuestiones como los neuroderechos, la propiedad intelectual o un régimen sancionador más estricto están en el punto de mira.
Los avances tecnológicos cambian las reglas de juego y requieren de revisiones de las leyes existentes o la creación de otras nuevas. Es el caso de la inteligencia artificial, cuyo uso ha comenzado a revisar la Unión Europea, que quiere configurar un marco jurídico adaptado a la actualidad.
Esta regulación es necesaria. Pero la primera propuesta no convence a todos. Dos de los profesores de la UOC (Universitat Oberta de Catalunya), Josep Curto y Sergio de Juan-Creix, que enseñan sobre Informática, Multimedia y Telecomunicación y Derecho, respectivamente, observan algunas lagunas.
Por ejemplo, hay puntos débiles en el área que abarca la ley. “La inteligencia artificial es la herramienta necesaria para predecir tu comportamiento y, basándose en esto, ofrecerte productos o servicios en función de cómo eres o cuál es tu estado de ánimo, anticipándote a él o moldeándolo al gusto del oferente. Esto va más allá de la privacidad o incluso de la intimidad porque para hacerlo necesitan tener cierto control predictivo sobre tu mente”, dice Sergio de Juan-Creix.
Este profesional ve riesgos de manipulación y cree necesario tocar la parte de los neuroderechos, vinculados a la privacidad y la identidad mental.
Josep Curto, por su parte, considera sorprendente que “no se consideren áreas que afectan a los consumidores y que están ligadas a las burbujas de información, las noticias falsas o las redes sociales”.
En tercer lugar, está la cuestión de la propiedad intelectual de las creaciones, hasta ahora basada en la originalidad. “Pero si se trata de una creación de un robot, ¿hay propiedad intelectual? Y, en su caso, ¿de quién es? ¿Del propietario del robot? ¿Del programador de la inteligencia artificial?”, cuestiona De Juan-Creix.
Vinculado a esto está la responsabilidad civil: “¿quién es la persona responsable en caso de que se incurra en un fallo? ¿Quien crea? ¿Quien integra? ¿Quien mantiene? ¿Quien controla? ¿Todos ellos? ¿Con el mismo nivel de responsabilidad? ¿Cómo se va a distribuir esta responsabilidad? Y, sobre todo, ¿cómo se va a hacer ello entendible para el consumidor?”, continúan las dudas.
Más allá de las implicaciones que tiene el uso de la tecnología de inteligencia artificial y su impacto en la sociedad, está la posibilidad de crear supervisores y la obligación de imponer sanciones.
Es decir, para cumplir con la normativa, es probable que las empresas deban contar con especialistas muy concretos en sus filas. En este sentido, Curto echa “en falta la recomendación de un rol similar al de responsable del tratamiento de datos (DPO) en el Reglamento General de Protección de Datos”. Un rol que podría ocupar los actuales CDO o CAO, responsables de los datos y de la analítica, u otro profesional equiparable, que “debe colaborar con el departamento de auditoría interno y con el legal, así como participar en el comité de gobierno del dato”.
La recomendación actual a nivel de multas es forzar pagos de unos 20 millones de euros o el 4 % de la facturación anual de la compañía infractora.
Pero, tal y “como hemos visto en los últimos años, muchas empresas han recibido sanciones vinculadas al tratamiento y a la protección de los datos de cliente, y aun así algunas de ellas siguen realizando las mismas prácticas puesto que operan en múltiples países al mismo tiempo y buscan estratagemas para saltarse el cumplimiento”, lamenta Curto.
“Hay que tener en cuenta que la inteligencia artificial no solo puede llegar a invadir la intimidad, sino darse el caso de llegar a colapsar un centro de salud, por ejemplo. Y en ese campo, igual que en el militar o en temas de control de la población, 20 millones de euros me parece una sanción irrisoria, igual que el 4 % de la facturación”, coincide Sergio de Juan-Creix.
“Si a Facebook las sanciones no le asustan porque puede pagarlas, debería haber un apartado diferente, con una cuantía más elevada aunque sea con efectos disuasorios, para megacompañías como estas que, controlando sistemas de inteligencia artificial, pueden consolidar todavía más su poder y su dependencia tecnológica”, concluye este experto.