Europa aprueba su Ley de Inteligencia Artificial

La Ley de Inteligencia Artificial europea da un paso más. El Parlamento Europeo acaba de aprobar la que pasará a la historia como primera ley vinculante sobre esta tecnología a nivel mundial.

El resultado de la votación ha sido de 523 votos a favor, 46 en contra y 49 abstenciones. El Reglamento había sido acordado con los Estados miembros en el mes de diciembre.

Su objetivo es impulsar la innovación sin perjudicar “los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental”, tal y como explican las autoridades europeas en referencia a los riesgos que implica la expansión de la IA.

La aprobación definitiva debería suceder antes de que finalice la legislatura en junio de 2024. La nueva normativa todavía tiene que ser adoptada formalmente por el Consejo Europeo. Una vez publicada en el Diario Oficial entrará en vigor a los veinte días y, veinticuatro meses más tarde, comenzará a aplicarse con algunas excepciones.

La Ley de Inteligencia Artificial prohíbe aplicaciones como los sistemas de categorización biométrica basados en características sensibles, la captura indiscriminada de imágenes de rostos de internet y las grabaciones de cámaras de vigilancia para generar bases de datos de reconocimiento facial.

Asimismo, el texto impide el reconocimiento de emociones en el lugar de trabajo o la escuela, los sistemas de puntuación ciudadana, la actuación policial predictiva y aplicaciones capaces de manipular el comportamiento humano o de explotar sus vulnerabilidades.

Las fuerzas de seguridad podrán recurrir a la identificación biométrica para usos limitados a un tiempo y lugar específicos, con autorización judicial o administrativa previa. Aquí entra la búsqueda de personas desaparecidas y la prevención de atentados.

En usos de alto riesgo, como aquellos que tienen que ver con infraestructuras críticas, servicios públicos, migración o procesos democráticos, entre otros, los sistemas desarrollados tendrán que mantener registros y ser transparentes. Deberán contar con supervisión humana y los ciudadanos podrán presentar reclamaciones.

A nivel de transparencia se tendrán en cuenta cuestiones como el cumplimiento de la legislación comunitaria sobre derechos de autor, la publicación de resúmenes del contenido usado para entrenar modelos o el informe sobre incidentes.

También cabe destacar que, conforme a la ley, los vídeos, imágenes y audios considerados “ultrafalsificaciones” irán etiquetados como tales.

Otro punto recogido tiene que ver con la innovación y la puesta disposición de pymes y startups espacios de prueba controlados para realizar sus ensayos en condiciones reales y trabajar con la IA antes de su comercialización.

Redacción Silicon

La redacción de Silicon está compuesta por profesionales del periodismo 2.0

Recent Posts

Los mensajes RCS, otra vía de acceso para ciberataques

Los mensajes RCS ofrecen muchas más posibilidades que los SMS, pero también abren la puerta…

23 horas ago

Telefónica Empresas ayudará a Microsoft a expandir los Copilot+ PC por España

Acompañará a las empresas en sus procesos de equipamiento, desde la elección del hardware hasta…

2 días ago

IBM y Esade promueven el uso de la IA en los Consejos de Administración

Juntos, trabajarán en la formación y la actualización de habilidades para que los consejeros impulsen…

2 días ago

ASUS lanza un Mini PC con inteligencia artificial

Este dispositivo incluye entre sus especificaciones procesador Intel Core Ultra (Serie 2) y botón Copilot.

2 días ago

EasyVisa adquiere una participación mayoritaria en OTRS Group

Ya cuenta en su poder con más del 90 % de las acciones del proveedor…

2 días ago

SoftwareOne y Crayon acuerdan fusionarse

Los actuales consejeros delegados, Raphael Erb y Melissa Mulholland, se convertirán en co-CEOs de la…

2 días ago