La inteligencia artificial (IA) está transformando la sociedad moderna a una velocidad sin precedentes. Aunque herramientas como ChatGPT y otras herramientas generativas de IA pueden ser de gran ayuda, también han demostrado ser una vía idónea para los cib erataques. En CyberArk Labs hemos analizado este creciente panorama de amenazas para comprender mejor los vectores de ataque de IA emergentes y ayudar a desarrollar nuevas formas de defensa para los programas de seguridad de la identidad.
Los generadores de voz con IA facilitan a los atacantes la extracción de información disponible públicamente, que luego utilizan para hacerse pasar por ejecutivos de empresas, celebridades e incluso presidentes de gobierno. Al generar confianza con su objetivo, los atacantes pueden obtener acceso a credenciales y otra información confidencial. Estas campañas de vishing pueden llevarse a cabo a gran escala utilizando generadores de voz y texto automatizados en tiempo real. Estas falsificaciones basadas en IA son cada vez más comunes y resultan difíciles de detectar. Los expertos predicen que el contenido generado por IA será indistinguible del contenido creado por humanos, lo cual es motivo de preocupación para los profesionales de la ciberseguridad.
El reconocimiento facial es una opción popular de autenticación biométrica para acceder a dispositivos e infraestructura. Sin embargo, los ciberdelincuentes también utilizan herramientas generativas de IA para comprometer identidades. En un estudio reciente, los investigadores de amenazas de la Universidad de Tel Aviv crearon una “cara maestra” o “clave maestra” que podría eludir la mayoría de los sistemas de reconocimiento facial. Utilizando un modelo de IA llamado GAN (Redes Adversas Generativas), optimizaron de manera iterativa una imagen vectorial para que coincidiera con las imágenes faciales de un amplio repositorio abierto. Como resultado, obtuvieron un conjunto de nueve imágenes que coincidían con más del 60% de los rostros en la base de datos, lo que significa que un atacante tendría un 60% de posibilidades de eludir con éxito la autenticación de reconocimiento facial y comprometer una identidad.
Los modelos de IA generativa han existido durante años, ¿entonces por qué tanto revuelo en este momento? La respuesta es una sola palabra: escala. Mientras que ChatGPT-2 podía manejar “solo” tres mil millones de parámetros, la última versión (GPT-3) puede manejar 100 veces más parámetros que su predecesora. Este crecimiento exponencial está directamente relacionado con los avances en la computación en la nube y los nuevos entornos sin perímetro que definen nuestra era digital. A medida que los modelos de IA sigan aprendiendo, continuarán mejorando en la creación de deepfakes realistas, malware y otras amenazas que alterarán el panorama actual.
Investigadores y desarrolladores están experimentando con IA generativa para escribir todo tipo de código, incluido el malware. La IA puede ser increíblemente eficaz en las primeras etapas de un ciberataque, como el reconocimiento, el desarrollo de malware y el acceso inicial. Sin embargo, aún no está claro si las tácticas, técnicas y procedimientos (TTP) de la IA son útiles una vez que el atacante está dentro de un sistema y busca aumentar privilegios, acceder a
credenciales y moverse lateralmente. Estas tres etapas dependen del compromiso de la identidad, lo que destaca la importancia de contar con sólidos controles de seguridad de identidad para proteger los sistemas y datos críticos.
En resumen, la IA será clave para contrarrestar los cambios en el panorama de amenazas, mejorar la agilidad y ayudar a las organizaciones a mantenerse un paso por delante de los atacantes. Al aprovechar la IA para fortalecer la seguridad en torno a las identidades humanas y no humanas, las organizaciones pueden mitigar eficazmente las amenazas tanto en la actualidad como en el futuro.
En este punto, CyberArk Labs identifica una nueva técnica impulsada por IA que podría clasificarse en la etapa de evasión de defensa de MITRE: el malware polimórfico, el cual muta su implementación manteniendo su funcionalidad original. Hasta hace poco, el malware se definía como “polimórfico” si cambiaba la forma en que cifraba sus diversos módulos, lo cual dificultaba especialmente la identificación por parte de los defensores. Sin embargo, con la introducción de la IA generativa, se ha abierto la posibilidad de mutar o generar módulos de código con diferentes implementaciones. En este sentido, nuestro equipo ha comenzado a experimentar con ChatGPT para crear malware polimórfico.
De esta manera, la IA se convierte en un factor clave para contrarrestar los cambios en el panorama de amenazas, mejorar la agilidad y ayudar a las organizaciones a mantenerse un paso adelante de los atacantes. Al aprovechar la IA para optimizar los límites de seguridad donde más se necesitan, es decir, alrededor de las identidades humanas y no humanas, las organizaciones pueden mitigar de manera efectiva las amenazas tanto en el presente como en el futuro.
En esta tribuna, Joaquim Borrás, consejero asesor de SISQUAL, explica cómo la inteligencia artificial transforma…
En esta tribuna, Adam Levine, CCO de Data4 Group, explica los retos para que los…
En esta tribuna, David Parry-Jones, Director de Ingresos de DeepL, analiza el impacto de la…
En esta tribuna, Ignacio Zaera, fundador y CEO de Simpling.pro, explica la importancia del sampling…
Sergio Rodríguez de Guzmán, CTO de PUE, explica en esta tribuna cómo la calidad de…
En esta tribuna, Mark Ryland, Director de Seguridad de Amazon, explica la importancia de una…