Los deep fake, o imágenes que simulan el rostro de personas reales (o su voz) se han convertido en una herramienta que utilizan los ciber delincuentes para acceder a sistemas corporativos lo que ocasiona que las empresas deban desarrollar sistemas de seguridad capaz de hacerles frente.
Y ante el uso de inteligencia artificial y herramientas de aprendizaje profundo (machine learning) se generan archivos de imagen, audio o vídeo haces de suplantar la identidad de personas autorizadas acceder a sistemas quebrantando la seguridad. Esto nos convierte en una herramienta atractiva para los ciber delincuentes al permitirles no solo el acceso a información sensible sino también adoptar la identidad de empleados, ejecutivos o clientes manipulando la comunicación.
Esto puede dar lugar, además de a fraudes y estafas por simulación de personalidad, a extorsiones por la generación de imágenes fraudulentas pero con apariencia de realidad, o incluso servir para generar crisis reputacionales a trabajadores y empresas. Lo más preocupante es que los propios sujetos que resultan afectados por estos vídeos deep fake son quienes proporcionan y el material de base para generarlos debido a la habitual proliferación de imágenes que todo el mundo publica en sus redes sociales.
Para luchar contra la amenaza que suponen estos deep fake puede tomarse algunas precauciones como las siguientes:
A pesar de los buenos datos registrados en el primer trimestre, las consecuencias de la…
"La competitividad ya no se juega en costes o tamaño, sino en la capacidad de…
Estafas de inversión y a través de tiendas de comercio electrónico, así como la entrada…
Con alrededor de 305 millones de unidades acumuladas durante el primer trimestre, se registró un…
Por su parte, los ingresos relacionados con los servicios prestados entre operadores se mantuvieron estables.
Con su integración en este navegador para dispositivos móviles con sistema operativo Android, Aria pasa…