Los ciberdelincuentes ya roban datos faciales para crear deepfakes con IA

deepfake

El malware móvil GoldPickaxe roba datos faciales para crear deepfakes empleados posteriormente por los ciberdelincuentes para autenticar transacciones financieras fraudulentas.

La IA puede traer muchas cosas buenas a nuestras vidas. Sin embargo, puede ser un auténtico peligro al caer en manos inadecuadas.

Hace unas semanas contábamos que la inmensa mayoría de los profesionales de la ciberseguridad (96%) consideran que la IA generativa es una amenaza. Asimismo, el 36% de los encuestados piensan que su uso para manipular o crear contenido engañoso (deepfakes) es una amenaza significativa.

Y el tiempo no ha hecho más que darles la razón. Los expertos de ESET han descubierto que los ciberdelincuentes están utilizando aplicaciones móviles falsas para sustituir los rostros de sus víctimas mediante servicios de intercambio de caras con IA, obteniendo así acceso no autorizado a sus cuentas, tal y como se recoge en su último informe ‘Threat Report’.

“El malware móvil GoldPickaxe es capaz de robar datos de reconocimiento facial para crear videos deepfake utilizados por los ciberdelincuentes para autenticar transacciones financieras fraudulentas”, explica Josep Albors, director de investigación y concienciación de ESET España.

“GoldPickaxe tiene versiones tanto para Android como para iOS y ha estado apuntando a víctimas en el sudeste asiático a través de aplicaciones maliciosas localizadas. También hemos detectado otras variantes en América Latina y Sudáfrica, por lo que es conveniente mantenernos alerta ante estas amenazas emergentes y reforzar nuestras medidas de seguridad para protegernos antes de que lleguen a España”, añade.

La compañía especifica que la versión de GoldPickaxe para Android se distribuye a través de sitios web que se hacen pasar por la tienda oficial de Google Play. En el caso de la versión de iOS, los ciberdelincuentes utilizan un esquema de ingeniería social de varias etapas para persuadir a las víctimas de que instalen un perfil de administración de dispositivos móviles (MDM), lo que permite a los atacantes obtener un control completo sobre el dispositivo iOS de la víctima.

Una vez instalado, el malware solicita a la víctima que grabe un vídeo como método de confirmación en la aplicación falsa. A continuación, dicho vídeo se emplea como materia prima para la creación de vídeos deepfake facilitados por herramientas de IA de intercambio de rostros.

Como vídeo falso no sería suficiente por sí solo para engañar a los sistemas de seguridad y autenticación de un banco, por ejemplo, GoldPickaxe también solicita los documentos de identidad de la víctima, intercepta los SMS y redirige el tráfico a través de un servidor proxy.

Además, ESET precisa que GoldPickaxe no realiza directamente transacciones no autorizadas desde el teléfono de la víctima, sino que recopila toda la información necesaria de la víctima para acceder de forma autónoma a su aplicación bancaria.

Recomendaciones para evitar deepfakes

La compañía ofrece una serie de consejos para no caer en la trampa de los ciberdelincuentes y evitar el riesgo de ser suplantados con deepfakes. En primer lugar, recomienda no descargar aplicaciones al margen de las tiendas oficiales, como Google Play Store y Apple App Store.

Además, hace hincapié en la importancia de aprender a identificar sitios web de phishing y de conocer las tácticas más frecuentes.

También aconseja realizar análisis de la seguridad de los smartphones, sobre todo si se aprecia alguna actividad sospechosa. Asimismo, si se detecta alguna app maliciosa, hay que eliminarla de inmediato y reiniciar el terminal.  En algunos casos, incluso puede ser necesario restablecer el dispositivo a los valores de fábrica.

Por último, para evitar las acciones de ingeniería social, insiste en extremar las precauciones ante las notificaciones de premios, bonificaciones, descuentos, etc., asegurándose de que sean auténticas. Y recuerda que, si parecen demasiado buenas para ser verdad, probablemente sean algún tipo de engaño.