Reina el desconocimiento sobre el Reglamento de Inteligencia Artificial de la Unión Europea

Europa tiene su propia ley sobre inteligencia artificial (IA), pero la población todavía tiene que familiarizarse con ella. Esta es la conclusión a la que se llega con los datos de una encuesta de Entelgy, The Business Tech Consultancy, en la mano.

Según esta encuesta, el 51 % de los españoles dice tener conocimiento de la existencia de una normativa aprobada por la Unión Europea (UE) para establecer reglas sobre la aplicación de la IA. Eso sí, a la hora de la verdad únicamente un 7,3 % entiende en qué le afecta dicha regulación.

El Reglamento de IA de la UE entró en vigor el pasado 1 de agosto para regular la introducción de esta tecnología en el mercado, su puesta en servicio y la utilización de sistemas inteligentes en los países miembros.

Con la IA abriéndose paso, aumentan las preocupaciones en torno a la seguridad, la privacidad y la ética. Un 93,1 % de los ciudadanos españoles ve necesario contar con una regulación que impacte tanto a empresas como a particulares.

Cuatro niveles de riesgo

Sobre la nueva normativa, Entelgy explica que su objetivo es “garantizar la seguridad y los derechos fundamentales de los ciudadanos de la UE frente a los riesgos potenciales de la IA”.

“Para ello”, ahonda, “clasifica las aplicaciones de IA en cuatro niveles de riesgo: riesgo inaceptable, alto, limitado y mínimo, siendo los sistemas de IA que manipulen comportamientos humanos o el reconocimiento facial en tiempo real en espacios públicos la categoría más alta de riego, mientras que las aplicaciones de riesgo limitado y mínimo están sujetas a obligaciones de transparencia, asegurando que los usuarios sean informados cuando interactúan con sistemas de IA”.

“Esta normativa representa un paso crucial para asegurar que las aplicaciones de IA se desarrollen y utilicen de manera segura y ética. Esto no sólo fortalecerá la confianza de los consumidores en las tecnologías de IA, sino que promoverá un entorno de innovación. Ante ello”, resuelve Entelgy, “las empresas debemos facilitar la adopción de las medidas y prácticas propuestas”.

Las empresas proveedoras de IA deberán llevar a cabo evaluaciones, asegurar requisitos, incorporar principios éticos y de seguridad en todas las fases de desarrollo y someterse a auditorías.

La puesta en marcha de esta ley podría terminar incentivando un estándar internacional, protegiendo a los ciudadanos e impulsando la confianza en la tecnología.

Redacción Silicon

La redacción de Silicon está compuesta por profesionales del periodismo 2.0

Recent Posts

La ciberseguridad del IoT crecerá un 120% en el próximo lustro

El internet de las cosas (IoT) trae muchas ventajas, pero también comporta nuevos riesgos. El…

1 hora ago

Bitdefender lanza un programa de garantía contra violaciones de seguridad

Ofrece hasta 1 millón de dólares de compensación económica en caso de incidente, con la…

21 horas ago

Cloud Expo evoluciona a Cloud & AI Infrastructure

Este cambio refleja los avances que se producen a nivel de infraestructura TI y el…

21 horas ago

DES2025 se centrará en la IA y ofrecerá una zona de experiencia tecnológica

El evento espera reunir a 17.000 directivos, que podrán escuchar a medio centenar expertos en…

22 horas ago

Snowflake llega a un acuerdo con Datavolo para su adquisición

Como resultado de esta operación, ampliará sus servicios en el "bronze layer" del ciclo de…

23 horas ago

NetApp aumenta un 6 % sus ingresos trimestrales

Durante el segundo trimestre de su año fiscal 2025 acumuló 1.660 millones de dólares, la…

23 horas ago