Facebook incrementa el uso de inteligencia artificial para eliminar el contenido del odio
La campaña europea para frenar la escalada del terrorismo incluirá la responsabilidad legal para las empresas de tecnología si no toman las medidas necesarias.
Facebook ha ofrecido información adicional sobre sus esfuerzos para eliminar el contenido del odio en su red en respuesta a la presión política en Europa.
Monika Bickert, directora de gestión de políticas globales de Facebook, y Brian Fishman, responsable de la política de lucha contra el terrorismo, han explicado en una entrada en el blog que Facebook ha incrementado el uso de la inteligencia artificial, como la correspondencia de imágenes y el reconocimiento del idioma.
La inteligencia artificial permite al gigante social ver si una foto o un video que se sube a la red coincide con una foto conocida o video de grupos que se ha definido como terroristas, como es el caso del Estado Islámico, Al Qaeda y sus afiliados.
En la búsqueda de soluciones técnicas a la escalada de los discursos terroristas en Internet, YouTube, Facebook, Twitter y Microsoft crearon el año pasado una base de datos común de huellas dactilares digitales asignadas automáticamente a videos o fotos de contenido militante para ayudarse mutuamente a identificar el mismo contenido en sus plataformas.
En Europa, la primera ministra británica, Theresa May, y el presidente francés, Emmanuel Macron, han ofrecido una rueda de prensa conjunta en la que han declarado: “nuestra campaña también incluirá explorar la creación de una responsabilidad legal para las empresas de tecnología si no toman las medidas necesarias para eliminar contenido inaceptable”.