Categories: CiberguerraSeguridad

Cómo la IA puede convertirse en la puerta de entrada a los ciberataques

La inteligencia artificial (IA) está transformando la sociedad moderna a una velocidad sin precedentes. Aunque herramientas como ChatGPT y otras herramientas generativas de IA pueden ser de gran ayuda, también han demostrado ser una vía idónea para los cib erataques. En CyberArk Labs hemos analizado este creciente panorama de amenazas para comprender mejor los vectores de ataque de IA emergentes y ayudar a desarrollar nuevas formas de defensa para los programas de seguridad de la identidad.

Escenario 1: Vishing

Los generadores de voz con IA facilitan a los atacantes la extracción de información disponible públicamente, que luego utilizan para hacerse pasar por ejecutivos de empresas, celebridades e incluso presidentes de gobierno. Al generar confianza con su objetivo, los atacantes pueden obtener acceso a credenciales y otra información confidencial. Estas campañas de vishing pueden llevarse a cabo a gran escala utilizando generadores de voz y texto automatizados en tiempo real. Estas falsificaciones basadas en IA son cada vez más comunes y resultan difíciles de detectar. Los expertos predicen que el contenido generado por IA será indistinguible del contenido creado por humanos, lo cual es motivo de preocupación para los profesionales de la ciberseguridad.

Escenario 2: Autenticación biométrica

El reconocimiento facial es una opción popular de autenticación biométrica para acceder a dispositivos e infraestructura. Sin embargo, los ciberdelincuentes también utilizan herramientas generativas de IA para comprometer identidades. En un estudio reciente, los investigadores de amenazas de la Universidad de Tel Aviv crearon una “cara maestra” o “clave maestra” que podría eludir la mayoría de los sistemas de reconocimiento facial. Utilizando un modelo de IA llamado GAN (Redes Adversas Generativas), optimizaron de manera iterativa una imagen vectorial para que coincidiera con las imágenes faciales de un amplio repositorio abierto. Como resultado, obtuvieron un conjunto de nueve imágenes que coincidían con más del 60% de los rostros en la base de datos, lo que significa que un atacante tendría un 60% de posibilidades de eludir con éxito la autenticación de reconocimiento facial y comprometer una identidad.

Los modelos de IA generativa han existido durante años, ¿entonces por qué tanto revuelo en este momento? La respuesta es una sola palabra: escala. Mientras que ChatGPT-2 podía manejar “solo” tres mil millones de parámetros, la última versión (GPT-3) puede manejar 100 veces más parámetros que su predecesora. Este crecimiento exponencial está directamente relacionado con los avances en la computación en la nube y los nuevos entornos sin perímetro que definen nuestra era digital. A medida que los modelos de IA sigan aprendiendo, continuarán mejorando en la creación de deepfakes realistas, malware y otras amenazas que alterarán el panorama actual.

Escenario 3: Malware polimórfico

Investigadores y desarrolladores están experimentando con IA generativa para escribir todo tipo de código, incluido el malware. La IA puede ser increíblemente eficaz en las primeras etapas de un ciberataque, como el reconocimiento, el desarrollo de malware y el acceso inicial. Sin embargo, aún no está claro si las tácticas, técnicas y procedimientos (TTP) de la IA son útiles una vez que el atacante está dentro de un sistema y busca aumentar privilegios, acceder a
credenciales y moverse lateralmente. Estas tres etapas dependen del compromiso de la identidad, lo que destaca la importancia de contar con sólidos controles de seguridad de identidad para proteger los sistemas y datos críticos.

En resumen, la IA será clave para contrarrestar los cambios en el panorama de amenazas, mejorar la agilidad y ayudar a las organizaciones a mantenerse un paso por delante de los atacantes. Al aprovechar la IA para fortalecer la seguridad en torno a las identidades humanas y no humanas, las organizaciones pueden mitigar eficazmente las amenazas tanto en la actualidad como en el futuro.

En este punto, CyberArk Labs identifica una nueva técnica impulsada por IA que podría clasificarse en la etapa de evasión de defensa de MITRE: el malware polimórfico, el cual muta su implementación manteniendo su funcionalidad original. Hasta hace poco, el malware se definía como “polimórfico” si cambiaba la forma en que cifraba sus diversos módulos, lo cual dificultaba especialmente la identificación por parte de los defensores. Sin embargo, con la introducción de la IA generativa, se ha abierto la posibilidad de mutar o generar módulos de código con diferentes implementaciones. En este sentido, nuestro equipo ha comenzado a experimentar con ChatGPT para crear malware polimórfico.

De esta manera, la IA se convierte en un factor clave para contrarrestar los cambios en el panorama de amenazas, mejorar la agilidad y ayudar a las organizaciones a mantenerse un paso adelante de los atacantes. Al aprovechar la IA para optimizar los límites de seguridad donde más se necesitan, es decir, alrededor de las identidades humanas y no humanas, las organizaciones pueden mitigar de manera efectiva las amenazas tanto en el presente como en el futuro.

Firma invitada

Nombres destacados del sector TIC opinan sobre las principales tendencias de la industria.

Recent Posts

Tendencias en almacenamiento HDD para 2025, una perspectiva completa

En esta tribuna, Rainer W. Kaese, director sénior de Desarrollo de Negocio de HDD de…

2 días ago

IA generativa: cinco razones por las que lo más pequeño puede ser más inteligente

En esta tribuna, Enric Delgado, director de Client Engineering Team de España, Portugal, Grecia e…

5 días ago

Pensando en pequeño para pensar en grande: la arquitectura modular de AMD impulsa la sostenibilidad

En esta tribuna, Justin Murrill, director de Responsabilidad Corporativa en AMD, explica cómo la arquitectura…

5 días ago

Observabilidad: La herramienta de la que todos hablan…

En esta tribuna, Mario Carranza, especialista en observabilidad de CPO WOCU-Monitoring, explica cómo la observabilidad…

2 semanas ago

Cómo combatir los ataques de los Estados-Nación y de los ciberdelincuentes: trabajando desde dentro de la amenaza

Adam Meyers, responsable de operaciones contra adversarios en CrowdStrike, explica cómo combatir las amenazas transversales…

2 semanas ago

El impacto de la IA generativa en las cadenas de suministro de la industria manufacturera

Ana Belén González Bartolomé, Head of Manufacturing, Logistics, Energy, and Utilities para España, Portugal e…

3 semanas ago