Deepfakes pornográficos, una amenaza más allá de la intimidad
Los deepfakes pornográficos no sólo vulneran la intimidad de sus víctimas, sino que también pueden tener repercusiones psicológicas, además de las consecuencias legales para los autores.
En los últimos meses estamos descubriendo que las aplicaciones de la inteligencia artificial son casi infinitas. Algunas nos pueden ayudar en nuestra labor diaria, como sucede con las herramientas de IA generativa. Sin embargo, esta tecnología también tiene un lado oscuro, como estamos viendo en el caso de los deepfakes.
Hace algún tiempo ya advertíamos de que los deepfakes servían para el entretenimiento, pero también para generar desinformación en torno a políticos, marcas y productos. Y también avisábamos del potencial que tenía para la creación de vídeos de contenido pornográfico.
El caso de los deepfakes de las niñas de Almendralejo nos demuestra que se trata de una amenaza real, ya que esta tecnología está al alcance de cualquiera, incluso de los niños.
El estudio ‘State of deepfakes 2023’ de Home Security Heroes, ofrece algunos datos impactantes. Por ejemplo, desvela que la cantidad total de videos deepfake que hay en la red ha crecido un 550% con respecto a 2019. Asimismo, destaca que la pornografía deepfake representa el 98% de todos los vídeos deepfake online.
Además, señala que para crear un video pornográfico deepfake de 60 segundos tan sólo se necesita una foto nítida del rostro de la víctima y se puede realizar en apenas 25 minutos, sin ningún coste económico. Otro dato relevante del informe es que el 99% de las personas a las que se dirige la pornografía deepfake son mujeres.
“La creación de imágenes sexuales creadas por IA, o deepfakes sexuales, no se contempla, aún, como un delito específico en el Código Penal. Ahora bien, atendiendo a la idea de la violencia de género como toda aquella violencia que en su extensión se ejerce contra las mujeres, la creación de este tipo de imágenes no deja de ser una herramienta y una forma de violencia más contra estas”, explica Rocío Pina, profesora de los Estudios de Psicología y Ciencias de la Educación y del grado de Criminología de la Universitat Oberta de Catalunya (UOC).
La creación de deepakes atenta contra dos grandes derechos: la protección de datos y la privacidad, y la intimidad, el honor y la propia imagen. “Se vulnera la normativa de protección de datos porque existe una difusión de información que, aunque sea esencialmente falsa, utiliza datos personales reales, como el rostro de una persona o a veces incluso la voz. Y esto conlleva frecuentemente un tratamiento de datos personales sin consentimiento del afectado. Además, la vulneración de la normativa también se ocasiona en el momento de compartir o difundir estas creaciones con IA a terceras personas, y a veces incluso a través de redes sociales en abierto, también sin el consentimiento del afectado”, detalla Eduard Blasi, profesor colaborador de los Estudios de Derecho y Ciencia Política de la UOC y experto en derecho a la privacidad.
Además, remarca que “estas imágenes conllevan a menudo un tratamiento de datos sensibles, ya que la información se encuentra relacionada con la vida íntima o sexual de una persona y, en función de la imagen generada mediante esta tecnología, se puede ocasionar también una lesión al derecho al honor, intimidad y/o propia imagen de la persona”.
Por otro lado, estos deepfakes pornográficos también pueden tener impacto psicológico en sus víctimas. “Esta nueva forma de ejercer violencia por medios digitales amplía su alcance y magnifica las consecuencias en las víctimas que las padecen”, recalca Pina. Así pues, hace hincapié en que la ciberviolencia contra las mujeres golpea directamente a su salud mental. Además, desde la UOC se indica que diversas investigaciones han encontrado altas tasas de problemas de salud mental —ansiedad, depresión, autolesiones y suicidio— como resultado del abuso digital, independientemente de si es un deepfake falso o real.
Igualmente, estos deepfakes llevan esta amenaza a los menores. Según un estudio de Internet Watch Foundation, existen pruebas razonables de que la IA está ayudando a crear imágenes de desnudo de niños cuyas fotos vestidas se han subido a internet.