Claves para luchar contra los deepfakes en el acceso a datos y recursos corporativos
El usod e deep fakes puede dar lugar a fraudes, estafas por simulación de personalidad y extorsiones por la generación de imágenes fraudulentas con apariencia de realidad.
Los deep fake, o imágenes que simulan el rostro de personas reales (o su voz) se han convertido en una herramienta que utilizan los ciber delincuentes para acceder a sistemas corporativos lo que ocasiona que las empresas deban desarrollar sistemas de seguridad capaz de hacerles frente.
Y ante el uso de inteligencia artificial y herramientas de aprendizaje profundo (machine learning) se generan archivos de imagen, audio o vídeo haces de suplantar la identidad de personas autorizadas acceder a sistemas quebrantando la seguridad. Esto nos convierte en una herramienta atractiva para los ciber delincuentes al permitirles no solo el acceso a información sensible sino también adoptar la identidad de empleados, ejecutivos o clientes manipulando la comunicación.
Esto puede dar lugar, además de a fraudes y estafas por simulación de personalidad, a extorsiones por la generación de imágenes fraudulentas pero con apariencia de realidad, o incluso servir para generar crisis reputacionales a trabajadores y empresas. Lo más preocupante es que los propios sujetos que resultan afectados por estos vídeos deep fake son quienes proporcionan y el material de base para generarlos debido a la habitual proliferación de imágenes que todo el mundo publica en sus redes sociales.
Claves para luchar contra la amenaza de los deep fake en las empresas
Para luchar contra la amenaza que suponen estos deep fake puede tomarse algunas precauciones como las siguientes:
- Incorporar los deep fake en los simulacros de crisis para incluirlos en los procedimientos de respuesta en caso de incidentes y brechas de seguridad.
- Educar a los empleados para que además de ser capaces de detectar correos electrónicos que contengan Fishing también sean capaces de identificar el uso de deep fakes.
- Añadir procedimientos adicionales de verificación de identidad tales como marcas de agua en archivos de audio y vídeo o sistemas de autenticación en dos pasos.
- Contratar seguros específicos sobre este tipo de amenazas.
- Añadir la detección de ddeep fake en los procesos de evaluación de riesgos.