¿Qué riesgos debe abordar el Acuerdo Europeo sobre la Inteligencia Artificial?
Alemania, Francia e Italia han sentado las bases del futuro Acuerdo Europeo sobre la Inteligencia Artificial, que tratará de contener los riesgos asociados al uso de esta tecnología.
El ‘boom’ que ha experimentado la inteligencia artificial en los últimos años ha sido espectacular. Descubrimos nuevas y sorprendentes aplicaciones de esta tecnología casi cada día y sus capacidades parecen no tener límites.
Sin embargo, su uso también comporta la aparición de nuevos riesgos, como su utilización con fines delictivos o la amenaza que supone su desarrollo sin tener en cuenta aspectos como la ética y la explicabilidad.
Ante tal situación, la Unión Europea está tomando cartas en el asunto. Por ejemplo, el pasado mes de marzo fue aprobada la nueva Ley de Inteligencia Artificial de la UE, aunque no entrará en vigor plenamente hasta 2026, como explicábamos en este reportaje.
Y la UE ahora quiere dar un nuevo paso adelante, con la puesta en marcha del Acuerdo Europeo sobre inteligencia artificial, que quiere sentar las bases para tratar de contener los riesgos asociados al uso de dicha tecnología.
Así pues, Alemania, Francia e Italia han alcanzado ya algunos puntos de consenso en un tratado que se enmarca en las negociaciones de la futura Acta de Inteligencia Artificial, una regulación que trata de evitar efectos discriminatorios y mitigar las ciberamenazas que puedan llevar a cabo grupos organizados de cibercriminales, pero sin perder de vista el potencial innovador de la inteligencia artificial, como indica Panda Security.
Sin embargo, la compañía de ciberseguridad advierte acerca del hecho de que sólo tres países de la UE hayan firmado este acuerdo. Por ejemplo, subraya que España no forma parte del tratado por una serie de diferencias en el enfoque hacia la regulación de los modelos fundamentales de inteligencia artificial.
En este sentido, Alemania, Francia e Italia abogan por una autorregulación obligatoria a través de códigos de conducta y se oponen a regulaciones estrictas y no probadas para estos modelos. En el lado opuesto están los países que consideran que esta filosofía puede no ser suficiente a la hora de garantizar la protección de los Derechos Humanos y evitar un uso indebido de la inteligencia artificial.
En cualquier caso, al margen de este asunto, que suscitará un intenso debate y negociaciones, el futuro Acuerdo Europeo sobre la Inteligencia Artificial debe atender a una serie de riesgos de seguridad que comporta el avance de esta tecnología.
Transparencia de la inteligencia artificial
Uno de los aspectos más destacados es la transparencia de los modelos. “Cuando se fomenta la transparencia en los modelos de IA, se pide a los desarrolladores que creen unas descripciones que explican cómo funcionan los modelos de inteligencia artificial, cuáles son sus capacidades y también sus limitaciones y puntos débiles”, apunta la compañía de ciberseguridad.
De este modo, si la información cae en mano de los ciberdelincuentes, pueden usarla para encontrar y aprovechar estas debilidades. Por ejemplo, podrían diseñar ataques específicos para hacer que el modelo cometa errores o falle en situaciones importantes. Como en sistemas de seguridad, salud o finanzas.
Incremento de la superficie de ataque
“Cuanto más se usa la IA en nuevas aplicaciones, se están creando nuevos puntos de acceso por donde los hackers pueden intentar atacar. Y, por supuesto, cada vez que se integra la IA en un nuevo sistema, se añaden y nuevas posibilidades de que algo salga mal. O que se genere alguna vulnerabilidad que pueda ser explotada por grupos de cibercriminales”, alerta Panda Security.
Así pues, es imprescindible llevar a cabo una monitorización exhaustiva y continua de todos los sistemas que interactúan con la inteligencia artificial, además de actualizar continuamente las medidas de seguridad para protegerlos de posibles ataques.
La inteligencia artificial no es infalible
La compañía de ciberseguridad recuerda que todavía es fácil engañar a los modelos de inteligencia artificial con “ataques adversarios”, creando entradas o datos para que cometan errores o actúe de manera incorrecta.
“Son una especie ‘preguntas trampa’ diseñadas para confundir a la inteligencia artificial y que dé respuestas erróneas, con las que los hackers pueden conseguir efectos que pueden llegar a ser críticos en áreas como la sanidad o las infraestructuras”, detalla Panda Security.
Riesgo de la filtración de datos
Los sistemas de inteligencia artificial suelen requerir grandes cantidades de datos para funcionar bien, entre los que puede haber información personal y sensible sobre las personas. “Al recopilar y analizar tantos datos, surgen preocupaciones importantes sobre la privacidad”, reseña la compañía.
“Si los sistemas que almacenan y procesan todos los datos no están bien protegidos, los hackers podrían acceder a esta información o filtrarla”, añade.
Esto puede hacer que surjan problemas como el robo de identidad para acceder a las cuentas bancarias de las víctimas, solicitar préstamos a su nombre o cometer otros fraudes.
La exposición de ciertos datos también podría llevar a situaciones en las que las personas sean tratadas de manera injusta o discriminatoria en función de una información personal que debería ser privada, como su historial médico o sus antecedentes financieros.