A partir del 25 de agosto de 2023, la Ley de Servicios Digitales (DSA, por sus siglas en inglés, Digital Services Act) de la Unión Europea se convierte en un requisito legal para las grandes empresas tecnológicas, con sanciones en caso de incumplimiento. Esta legislación busca garantizar la seguridad en Internet, proteger a los usuarios y responsabilizar a las plataformas digitales, incluyendo redes sociales y motores de búsqueda.
Esta ley tiene como objetivo principal mejorar la seguridad en Internet, proteger a los usuarios y responsabilizar a las plataformas digitales en la reducción de riesgos y daños en línea. A continuación, Blanca González, consultora de seguridad de Entelgy Innotec Security, analiza las claves para comprender la Ley de Servicios Digitales que regula a las grandes tecnológicas:
Claves de la Ley de Servicios Digitales
- Objetivo de seguridad: La principal finalidad de la Ley de Servicios Digitales es hacer que Internet sea más seguro para los usuarios y que las plataformas digitales reduzcan los riesgos y daños en línea.
- Ámbitos de obligación: Esta ley impone diversas responsabilidades, como el control de la desinformación en redes sociales, la eliminación de contenidos ilícitos, medidas para aumentar la transparencia y regulación de la recolección de datos personales.
- Eliminación de contenido ilegal: Las plataformas deben eliminar rápidamente cualquier contenido ilegal en sus páginas web si tienen conocimiento de su existencia. Esto incluye contenidos que inciten al odio, delitos contra menores, desinformación y la venta de productos ilícitos.
- Mecanismo de denuncia: Se establece un mecanismo de aviso-acción que permite a los usuarios denunciar contenidos ilegales, y las empresas deben notificar sus decisiones y retirar los contenidos ilegales denunciados.
- Transparencia publicitaria: Las plataformas deben indicar claramente si una información es publicidad y quién la promueve. También se prohíbe la publicidad dirigida a menores y basada en datos confidenciales.
- Lucha contra la desinformación: La normativa busca dificultar la amplificación de contenidos dañinos, especialmente relacionados con la salud pública y el discurso cívico, y exige a las entidades demostrar esfuerzos para abordar este riesgo.
- Transparencia en algoritmos: Las empresas deben detallar el funcionamiento de sus algoritmos en sus términos y condiciones y proporcionar esta información a las autoridades europeas si se les solicita.
- Control de datos: Los usuarios tienen un mayor control sobre los datos e información compartidos con las plataformas, y estas no pueden basar sus recomendaciones en perfiles creados a partir de información personal.
- Responsabilidad en la eliminación de contenidos ilícitos: Aunque no responsabiliza a las empresas por lo que sus usuarios publican, la ley enfatiza la responsabilidad de eliminar contenidos ilegales y requiere informes públicos anuales sobre métodos de moderación.
- Sanciones: La ley establece sanciones económicas que no superan el 6% del volumen de negocios anual global de la compañía multada en caso de incumplimiento, con penalizaciones más severas para plataformas en línea y motores de búsqueda.