¿Qué riesgos debe abordar el Acuerdo Europeo sobre la Inteligencia Artificial?

El ‘boom’ que ha experimentado la inteligencia artificial en los últimos años ha sido espectacular. Descubrimos nuevas y sorprendentes aplicaciones de esta tecnología casi cada día y sus capacidades parecen no tener límites.

Sin embargo, su uso también comporta la aparición de nuevos riesgos, como su utilización con fines delictivos o la amenaza que supone su desarrollo sin tener en cuenta aspectos como la ética y la explicabilidad.

Ante tal situación, la Unión Europea está tomando cartas en el asunto. Por ejemplo, el pasado mes de marzo fue aprobada la nueva Ley de Inteligencia Artificial de la UE, aunque no entrará en vigor plenamente hasta 2026, como explicábamos en este reportaje.

Y la UE ahora quiere dar un nuevo paso adelante, con la puesta en marcha del Acuerdo Europeo sobre inteligencia artificial, que quiere sentar las bases para tratar de contener los riesgos asociados al uso de dicha tecnología.

Así pues, Alemania, Francia e Italia han alcanzado ya algunos puntos de consenso en un tratado que se enmarca en las negociaciones de la futura Acta de Inteligencia Artificial, una regulación que trata de evitar efectos discriminatorios y mitigar las ciberamenazas que puedan llevar a cabo grupos organizados de cibercriminales, pero sin perder de vista el potencial innovador de la inteligencia artificial, como indica Panda Security.

Sin embargo, la compañía de ciberseguridad advierte acerca del hecho de que sólo tres países de la UE hayan firmado este acuerdo. Por ejemplo, subraya que España no forma parte del tratado por una serie de diferencias en el enfoque hacia la regulación de los modelos fundamentales de inteligencia artificial.

En este sentido, Alemania, Francia e Italia abogan por una autorregulación obligatoria a través de códigos de conducta y se oponen a regulaciones estrictas y no probadas para estos modelos. En el lado opuesto están los países que consideran que esta filosofía puede no ser suficiente a la hora de garantizar la protección de los Derechos Humanos y evitar un uso indebido de la inteligencia artificial​.

En cualquier caso, al margen de este asunto, que suscitará un intenso debate y negociaciones, el futuro Acuerdo Europeo sobre la Inteligencia Artificial debe atender a una serie de riesgos de seguridad que comporta el avance de esta tecnología.

Transparencia de la inteligencia artificial

Uno de los aspectos más destacados es la transparencia de los modelos. “Cuando se fomenta la transparencia en los modelos de IA, se pide a los desarrolladores que creen unas descripciones que explican cómo funcionan los modelos de inteligencia artificial, cuáles son sus capacidades y también sus limitaciones y puntos débiles”, apunta la compañía de ciberseguridad.

De este modo, si la información cae en mano de los ciberdelincuentes, pueden usarla para encontrar y aprovechar estas debilidades. Por ejemplo, podrían diseñar ataques específicos para hacer que el modelo cometa errores o falle en situaciones importantes. Como en sistemas de seguridad, salud o finanzas.

Incremento de la superficie de ataque

“Cuanto más se usa la IA en nuevas aplicaciones, se están creando nuevos puntos de acceso por donde los hackers pueden intentar atacar. Y, por supuesto, cada vez que se integra la IA en un nuevo sistema, se añaden y nuevas posibilidades de que algo salga mal. O que se genere alguna vulnerabilidad que pueda ser explotada por grupos de cibercriminales”, alerta Panda Security.

Así pues, es imprescindible llevar a cabo una monitorización exhaustiva y continua de todos los sistemas que interactúan con la inteligencia artificial, además de actualizar continuamente las medidas de seguridad para protegerlos de posibles ataques.

La inteligencia artificial no es infalible

La compañía de ciberseguridad recuerda que todavía es fácil engañar a los modelos de inteligencia artificial con “ataques adversarios”, creando entradas o datos para que cometan errores o actúe de manera incorrecta.

“Son una especie ‘preguntas trampa’ diseñadas para confundir a la inteligencia artificial y que dé respuestas erróneas, con las que los hackers pueden conseguir efectos que pueden llegar a ser críticos en áreas como la sanidad o las infraestructuras”, detalla Panda Security.

Riesgo de la filtración de datos

Los sistemas de inteligencia artificial suelen requerir grandes cantidades de datos para funcionar bien, entre los que puede haber información personal y sensible sobre las personas. “Al recopilar y analizar tantos datos, surgen preocupaciones importantes sobre la privacidad”, reseña la compañía.

“Si los sistemas que almacenan y procesan todos los datos no están bien protegidos, los hackers podrían acceder a esta información o filtrarla”, añade.

Esto puede hacer que surjan problemas como el robo de identidad para acceder a las cuentas bancarias de las víctimas, solicitar préstamos a su nombre o cometer otros fraudes.

La exposición de ciertos datos también podría llevar a situaciones en las que las personas sean tratadas de manera injusta o discriminatoria en función de una información personal que debería ser privada, como su historial médico o sus antecedentes financieros.

David Ramos

Soy periodista freelance especializado en información económica, gestión empresarial y tecnología. Yo no elegí esta especialidad. Fue ella la que me escogió a mí.

Recent Posts

La desinformación y las fakes news se expanden en la red

Además de fakes news, en internet encontramos múltiples formas de desinformación: clonación de medios de…

1 día ago

Recomendaciones de seguridad para mantener los almacenes libres de ciberdelincuencia

Sin las medidas de protección necesarias, un almacén puede convertirse en el eslabón más débil…

2 días ago

La importancia de optimizar los pagos para generar más ingresos y reducir los costes

Adyen publica los resultados de su estudio "Estrategias para reducir el coste total de pagos",…

2 días ago

Solamente 2 de cada 10 empresas reducen su huella medioambiental con tecnología

Del porcentaje global del 21 % se baja a un 18 % en el caso…

2 días ago

Sophos: “El uso más frecuente de la IA en la ciberdelincuencia es para ‘turboalimentar’ sus estafas sociales”

Entrevistamos a John Shier, CTO Field de Sophos, que hace repaso de las amenazas surgidas…

2 días ago

¿Cómo convertir a España en hub digital clave para Europa?

Desde fibratel comparten una serie de pautas para orientar la construcción de centros de datos…

2 días ago