La inteligencia artificial (IA) está transformando la sociedad moderna a una velocidad sin precedentes. Aunque herramientas como ChatGPT y otras herramientas generativas de IA pueden ser de gran ayuda, también han demostrado ser una vía idónea para los cib erataques. En CyberArk Labs hemos analizado este creciente panorama de amenazas para comprender mejor los vectores de ataque de IA emergentes y ayudar a desarrollar nuevas formas de defensa para los programas de seguridad de la identidad.
Los generadores de voz con IA facilitan a los atacantes la extracción de información disponible públicamente, que luego utilizan para hacerse pasar por ejecutivos de empresas, celebridades e incluso presidentes de gobierno. Al generar confianza con su objetivo, los atacantes pueden obtener acceso a credenciales y otra información confidencial. Estas campañas de vishing pueden llevarse a cabo a gran escala utilizando generadores de voz y texto automatizados en tiempo real. Estas falsificaciones basadas en IA son cada vez más comunes y resultan difíciles de detectar. Los expertos predicen que el contenido generado por IA será indistinguible del contenido creado por humanos, lo cual es motivo de preocupación para los profesionales de la ciberseguridad.
El reconocimiento facial es una opción popular de autenticación biométrica para acceder a dispositivos e infraestructura. Sin embargo, los ciberdelincuentes también utilizan herramientas generativas de IA para comprometer identidades. En un estudio reciente, los investigadores de amenazas de la Universidad de Tel Aviv crearon una “cara maestra” o “clave maestra” que podría eludir la mayoría de los sistemas de reconocimiento facial. Utilizando un modelo de IA llamado GAN (Redes Adversas Generativas), optimizaron de manera iterativa una imagen vectorial para que coincidiera con las imágenes faciales de un amplio repositorio abierto. Como resultado, obtuvieron un conjunto de nueve imágenes que coincidían con más del 60% de los rostros en la base de datos, lo que significa que un atacante tendría un 60% de posibilidades de eludir con éxito la autenticación de reconocimiento facial y comprometer una identidad.
Los modelos de IA generativa han existido durante años, ¿entonces por qué tanto revuelo en este momento? La respuesta es una sola palabra: escala. Mientras que ChatGPT-2 podía manejar “solo” tres mil millones de parámetros, la última versión (GPT-3) puede manejar 100 veces más parámetros que su predecesora. Este crecimiento exponencial está directamente relacionado con los avances en la computación en la nube y los nuevos entornos sin perímetro que definen nuestra era digital. A medida que los modelos de IA sigan aprendiendo, continuarán mejorando en la creación de deepfakes realistas, malware y otras amenazas que alterarán el panorama actual.
Investigadores y desarrolladores están experimentando con IA generativa para escribir todo tipo de código, incluido el malware. La IA puede ser increíblemente eficaz en las primeras etapas de un ciberataque, como el reconocimiento, el desarrollo de malware y el acceso inicial. Sin embargo, aún no está claro si las tácticas, técnicas y procedimientos (TTP) de la IA son útiles una vez que el atacante está dentro de un sistema y busca aumentar privilegios, acceder a
credenciales y moverse lateralmente. Estas tres etapas dependen del compromiso de la identidad, lo que destaca la importancia de contar con sólidos controles de seguridad de identidad para proteger los sistemas y datos críticos.
En resumen, la IA será clave para contrarrestar los cambios en el panorama de amenazas, mejorar la agilidad y ayudar a las organizaciones a mantenerse un paso por delante de los atacantes. Al aprovechar la IA para fortalecer la seguridad en torno a las identidades humanas y no humanas, las organizaciones pueden mitigar eficazmente las amenazas tanto en la actualidad como en el futuro.
En este punto, CyberArk Labs identifica una nueva técnica impulsada por IA que podría clasificarse en la etapa de evasión de defensa de MITRE: el malware polimórfico, el cual muta su implementación manteniendo su funcionalidad original. Hasta hace poco, el malware se definía como “polimórfico” si cambiaba la forma en que cifraba sus diversos módulos, lo cual dificultaba especialmente la identificación por parte de los defensores. Sin embargo, con la introducción de la IA generativa, se ha abierto la posibilidad de mutar o generar módulos de código con diferentes implementaciones. En este sentido, nuestro equipo ha comenzado a experimentar con ChatGPT para crear malware polimórfico.
De esta manera, la IA se convierte en un factor clave para contrarrestar los cambios en el panorama de amenazas, mejorar la agilidad y ayudar a las organizaciones a mantenerse un paso adelante de los atacantes. Al aprovechar la IA para optimizar los límites de seguridad donde más se necesitan, es decir, alrededor de las identidades humanas y no humanas, las organizaciones pueden mitigar de manera efectiva las amenazas tanto en el presente como en el futuro.
En esta tribuna, Rainer W. Kaese, director sénior de Desarrollo de Negocio de HDD de…
En esta tribuna, Enric Delgado, director de Client Engineering Team de España, Portugal, Grecia e…
En esta tribuna, Justin Murrill, director de Responsabilidad Corporativa en AMD, explica cómo la arquitectura…
En esta tribuna, Mario Carranza, especialista en observabilidad de CPO WOCU-Monitoring, explica cómo la observabilidad…
Adam Meyers, responsable de operaciones contra adversarios en CrowdStrike, explica cómo combatir las amenazas transversales…
Ana Belén González Bartolomé, Head of Manufacturing, Logistics, Energy, and Utilities para España, Portugal e…