Reina el desconocimiento sobre el Reglamento de Inteligencia Artificial de la Unión Europea

Europa tiene su propia ley sobre inteligencia artificial (IA), pero la población todavía tiene que familiarizarse con ella. Esta es la conclusión a la que se llega con los datos de una encuesta de Entelgy, The Business Tech Consultancy, en la mano.

Según esta encuesta, el 51 % de los españoles dice tener conocimiento de la existencia de una normativa aprobada por la Unión Europea (UE) para establecer reglas sobre la aplicación de la IA. Eso sí, a la hora de la verdad únicamente un 7,3 % entiende en qué le afecta dicha regulación.

El Reglamento de IA de la UE entró en vigor el pasado 1 de agosto para regular la introducción de esta tecnología en el mercado, su puesta en servicio y la utilización de sistemas inteligentes en los países miembros.

Con la IA abriéndose paso, aumentan las preocupaciones en torno a la seguridad, la privacidad y la ética. Un 93,1 % de los ciudadanos españoles ve necesario contar con una regulación que impacte tanto a empresas como a particulares.

Cuatro niveles de riesgo

Sobre la nueva normativa, Entelgy explica que su objetivo es “garantizar la seguridad y los derechos fundamentales de los ciudadanos de la UE frente a los riesgos potenciales de la IA”.

“Para ello”, ahonda, “clasifica las aplicaciones de IA en cuatro niveles de riesgo: riesgo inaceptable, alto, limitado y mínimo, siendo los sistemas de IA que manipulen comportamientos humanos o el reconocimiento facial en tiempo real en espacios públicos la categoría más alta de riego, mientras que las aplicaciones de riesgo limitado y mínimo están sujetas a obligaciones de transparencia, asegurando que los usuarios sean informados cuando interactúan con sistemas de IA”.

“Esta normativa representa un paso crucial para asegurar que las aplicaciones de IA se desarrollen y utilicen de manera segura y ética. Esto no sólo fortalecerá la confianza de los consumidores en las tecnologías de IA, sino que promoverá un entorno de innovación. Ante ello”, resuelve Entelgy, “las empresas debemos facilitar la adopción de las medidas y prácticas propuestas”.

Las empresas proveedoras de IA deberán llevar a cabo evaluaciones, asegurar requisitos, incorporar principios éticos y de seguridad en todas las fases de desarrollo y someterse a auditorías.

La puesta en marcha de esta ley podría terminar incentivando un estándar internacional, protegiendo a los ciudadanos e impulsando la confianza en la tecnología.

Redacción Silicon

La redacción de Silicon está compuesta por profesionales del periodismo 2.0

Recent Posts

España acogerá el desarrollo de tres proyectos vencedores del Amazon Sustainability Accelerator

Las startups Pirta, SolCold y Raicoon probarán sus tecnologías en el centro logístico sevillano SVQ1,…

5 horas ago

Allurity anuncia dos adquisiciones que expanden su presencia en Europa

Se ha hecho con la francesa Lyvoc y la británica SecAlliance. Ahora cuenta con nueve…

6 horas ago

La cuarta edición de Madrid Tech Show tendrá más de 500 conferencias y 400 expositores

Se celebrará en IFEMA del 16 al 17 de octubre y con seis ferias a…

7 horas ago

Arantxa Palacio, nueva Country Manager de Genesys para Iberia

Llega procedente de Amazon Web Services, donde se ocupaba del segmento startup en España y…

8 horas ago

La factura electrónica bate récords en España

Durante 2023 se emitieron más de 460,3 millones de e-facturas en el ámbito B2B, un…

9 horas ago

Brecha de realidad, preparación y datos: La situación de la IA en las empresas

Hoy por hoy solamente un 37 % de las compañías se encuentra preparado para implementar…

11 horas ago