Los deep fake, o imágenes que simulan el rostro de personas reales (o su voz) se han convertido en una herramienta que utilizan los ciber delincuentes para acceder a sistemas corporativos lo que ocasiona que las empresas deban desarrollar sistemas de seguridad capaz de hacerles frente.
Y ante el uso de inteligencia artificial y herramientas de aprendizaje profundo (machine learning) se generan archivos de imagen, audio o vídeo haces de suplantar la identidad de personas autorizadas acceder a sistemas quebrantando la seguridad. Esto nos convierte en una herramienta atractiva para los ciber delincuentes al permitirles no solo el acceso a información sensible sino también adoptar la identidad de empleados, ejecutivos o clientes manipulando la comunicación.
Esto puede dar lugar, además de a fraudes y estafas por simulación de personalidad, a extorsiones por la generación de imágenes fraudulentas pero con apariencia de realidad, o incluso servir para generar crisis reputacionales a trabajadores y empresas. Lo más preocupante es que los propios sujetos que resultan afectados por estos vídeos deep fake son quienes proporcionan y el material de base para generarlos debido a la habitual proliferación de imágenes que todo el mundo publica en sus redes sociales.
Para luchar contra la amenaza que suponen estos deep fake puede tomarse algunas precauciones como las siguientes:
Además de fakes news, en internet encontramos múltiples formas de desinformación: clonación de medios de…
Sin las medidas de protección necesarias, un almacén puede convertirse en el eslabón más débil…
Adyen publica los resultados de su estudio "Estrategias para reducir el coste total de pagos",…
Del porcentaje global del 21 % se baja a un 18 % en el caso…
Entrevistamos a John Shier, CTO Field de Sophos, que hace repaso de las principales amenazas…
Desde fibratel comparten una serie de pautas para orientar la construcción de centros de datos…