Reina el desconocimiento sobre el Reglamento de Inteligencia Artificial de la Unión Europea

Europa tiene su propia ley sobre inteligencia artificial (IA), pero la población todavía tiene que familiarizarse con ella. Esta es la conclusión a la que se llega con los datos de una encuesta de Entelgy, The Business Tech Consultancy, en la mano.

Según esta encuesta, el 51 % de los españoles dice tener conocimiento de la existencia de una normativa aprobada por la Unión Europea (UE) para establecer reglas sobre la aplicación de la IA. Eso sí, a la hora de la verdad únicamente un 7,3 % entiende en qué le afecta dicha regulación.

El Reglamento de IA de la UE entró en vigor el pasado 1 de agosto para regular la introducción de esta tecnología en el mercado, su puesta en servicio y la utilización de sistemas inteligentes en los países miembros.

Con la IA abriéndose paso, aumentan las preocupaciones en torno a la seguridad, la privacidad y la ética. Un 93,1 % de los ciudadanos españoles ve necesario contar con una regulación que impacte tanto a empresas como a particulares.

Cuatro niveles de riesgo

Sobre la nueva normativa, Entelgy explica que su objetivo es “garantizar la seguridad y los derechos fundamentales de los ciudadanos de la UE frente a los riesgos potenciales de la IA”.

“Para ello”, ahonda, “clasifica las aplicaciones de IA en cuatro niveles de riesgo: riesgo inaceptable, alto, limitado y mínimo, siendo los sistemas de IA que manipulen comportamientos humanos o el reconocimiento facial en tiempo real en espacios públicos la categoría más alta de riego, mientras que las aplicaciones de riesgo limitado y mínimo están sujetas a obligaciones de transparencia, asegurando que los usuarios sean informados cuando interactúan con sistemas de IA”.

“Esta normativa representa un paso crucial para asegurar que las aplicaciones de IA se desarrollen y utilicen de manera segura y ética. Esto no sólo fortalecerá la confianza de los consumidores en las tecnologías de IA, sino que promoverá un entorno de innovación. Ante ello”, resuelve Entelgy, “las empresas debemos facilitar la adopción de las medidas y prácticas propuestas”.

Las empresas proveedoras de IA deberán llevar a cabo evaluaciones, asegurar requisitos, incorporar principios éticos y de seguridad en todas las fases de desarrollo y someterse a auditorías.

La puesta en marcha de esta ley podría terminar incentivando un estándar internacional, protegiendo a los ciudadanos e impulsando la confianza en la tecnología.

Redacción Silicon

La redacción de Silicon está compuesta por profesionales del periodismo 2.0

Recent Posts

Las 6 profesiones tecnológicas con mayor futuro

Desde el ingeniero en inteligencia artificial al ingeniero de 'prompts', son varios los perfiles que…

3 horas ago

España, lejos del objetivo de IA para 2025

Los informes oficiales sitúan el uso empresarial actual de inteligencia artificial en un 13 %,…

5 horas ago

Madrid, Barcelona y Valencia lideran las compras online en España

Mientras, Alemania, Italia y Francia son los principales compradores extranjeros.

6 horas ago

De niño a hacker: los motivos que llevan a los menores a delinquir en internet

Kaspersky advierte de que hay menores de edad que están siendo reclutados por los ciberdelincuentes…

7 horas ago

“La IA allanará el camino hacia una jornada laboral más corta”

LinkedIn comparte una lista con las cinco tendencia que definirán la senda del mercado laboral…

1 día ago

9 tendencias para 2025 en el campo de la ciberseguridad

Proopoint cree que el año que viene los delincuentes manipularán datos privados asociados a la…

1 día ago