Los deep fake, o imágenes que simulan el rostro de personas reales (o su voz) se han convertido en una herramienta que utilizan los ciber delincuentes para acceder a sistemas corporativos lo que ocasiona que las empresas deban desarrollar sistemas de seguridad capaz de hacerles frente.
Y ante el uso de inteligencia artificial y herramientas de aprendizaje profundo (machine learning) se generan archivos de imagen, audio o vídeo haces de suplantar la identidad de personas autorizadas acceder a sistemas quebrantando la seguridad. Esto nos convierte en una herramienta atractiva para los ciber delincuentes al permitirles no solo el acceso a información sensible sino también adoptar la identidad de empleados, ejecutivos o clientes manipulando la comunicación.
Esto puede dar lugar, además de a fraudes y estafas por simulación de personalidad, a extorsiones por la generación de imágenes fraudulentas pero con apariencia de realidad, o incluso servir para generar crisis reputacionales a trabajadores y empresas. Lo más preocupante es que los propios sujetos que resultan afectados por estos vídeos deep fake son quienes proporcionan y el material de base para generarlos debido a la habitual proliferación de imágenes que todo el mundo publica en sus redes sociales.
Para luchar contra la amenaza que suponen estos deep fake puede tomarse algunas precauciones como las siguientes:
Cisco comparte una lista con los cinco fenómenos tecnológicos que prevé que marcarán el rumbo…
Los profesionales de tecnología de la información, telecomunicaciones y comercio electrónico reciben un salario de…
Ha reunido a directivos de diferentes sectores en Madrid para presentar esta herramienta basada en…
Pensada para potenciar las estrategias de marketing con inteligencia artificial, incluye herramientas como ad-machina, Gauss…
Jetson Orin Nano Super Developer Kit proporciona una plataforma potente para entrenar y perfeccionar herramientas…
Esta popularización de la inteligencia artificial pone en valor la parte humana de fases posteriores,…