Los medios sociales implementan software automático para evitar contenido extremista
Hasta ahora, los editores humanos han revisado, marcado y eliminado el contenido pero el proceso automatizado puede reaccionar mucho más rápido.
Los medios sociales son una de las herramientas que los grupos terroristas más utilizan para radicalizar a los jóvenes y difundir mensajes de violencia, racismo y odio.
YouTube y Facebook acaban de confirmar el uso del software bajo el denominado ‘Counter Extremism Project’ para eliminar contenido que incite al terror. Ambas compañías han comenzado a utilizar procesos automatizados para bloquear y eliminar vídeos de propaganda terroristas rápidamente, como adelantó Reuters.
Hasta ahora, los editores humanos han revisado, marcado y eliminado el contenido cuando se ha considerado necesario, pero el proceso automatizado puede reaccionar mucho más rápido y eficazmente.
“Se trabaja de forma totalmente automática, es eficiente, preciso y permite a las empresas tecnológicas la aplicación efectiva de sus términos de servicio, detectando y bloquenado el contenido que no está permitido”, ha manifestado Hany Farid, asesor del ‘Counter Extremism Project’.
Twitter también está evaluando el uso de este software.
En mayo, Twitter, YouTube, Facebook y Microsoft se unieron a un grupo de empresas TIC que ha firmado un código de conducta publicado por la Comisión Europea y los estados miembros de la UE, en un esfuerzo por frenar la incitación al odio online y el extremismo violento.