Las tecnologías de Inteligencia Artificial representan una gran oportunidad para hacer frente a los retos económicos, sociales y de seguridad actuales. Tanto es así que el número de organizaciones que están adoptando la IA ha aumentado en más de un 270% desde 2015, según Gartner. Sin embargo, esta tecnología supone también una ventaja para los ciberatacantes que se encuentran ante un panorama en el que pueden hacer uso de la IA con fines maliciosos.
No nos encontramos ante un panorama que haya resultado imposible de prever, ya que numerosos expertos llevan años advirtiendo acerca de los peligros. El mismo Elon Musk ya calificó en 2017 a la IA no regulada como un “gran riesgo” para nuestra civilización. Teniendo en cuenta este contexto, es crucial detenerse a analizar en profundidad cuáles son los riesgos de los ataques impulsados por la IA y cómo se está desarrollando esta misma tecnología para ofrecer una respuesta con fines defensivos.
Aunque hasta la fecha no se han producido ataques de IA a gran escala, se trata de un tipo de amenaza que, inevitablemente, surgirá en un futuro próximo, incrementando la velocidad, la escala y la sofisticación de los ataques. Por ejemplo, la IA podría utilizarse para mejorar las fases de reconocimiento y la práctica de la ingeniería social permitiendo usurpar con precisión la identidad del objetivo, mejorar la fase de intrusión y ataque del malware hasta el punto de reproducir el comportamiento de un usuario humano o corromper los sistemas de IA introduciendo datos erróneos.
Por todo ello, los expertos en ciberseguridad se enfrentan hoy en día a múltiples retos: número récord de ataques, falta de personal cualificado, fatiga cibernética de los analistas del SOC, aumento de la sofisticación de los procesos… Hablamos de entorno continuamente expuesto a las amenazas y que requiere que la IA pueda aplicarse a la ciberdefensa de forma inmediata.
En respuesta a esta amenaza, la IA y el Machine Learning utilizados con fines de ciberseguridad deben buscar una mayor eficiencia para prevenir la infiltración de malware y cualquier otro tipo de ataque. Para que la IA consiga desarrollarse como una solución de garantías en el ámbito de la ciberseguridad, uno de los principales retos a los que debe hacer frente reside en la noción de explicabilidad.
Los sistemas de IA han sido comparados habitualmente con cajas negras debido a que su proceso de toma de decisiones todavía resulta opaco como consecuencia de la propia naturaleza de la tecnología, que se adapta y evoluciona constantemente. Por ello, esta noción es básica para hacer este proceso más transparente -y por tanto explicable- y para dar visibilidad al contexto que fundamenta las decisiones tomadas por la IA.
El objetivo de la explicabilidad es, por tanto, contextualizar los resultados extraídos por los analistas a través de la IA para evaluar su relevancia y enriquecer la respuesta a una amenaza. Además, posibilitaría a los científicos de datos identificar dónde y por qué se forman posibles sesgos, tomar medidas para mitigarlos y, especialmente, identificar un ataque que pretenda corromper un sistema de IA controlando la calidad de los datos.
Como hemos resaltado previamente, la expansión y mejora de la tecnología de IA aumenta sus posibles usos con fines maliciosos. Es por ello por lo que cabe destacar que la dimensión ética de la IA es una cuestión clave para decantar la balanza a favor de sus usos aplicado a la ciberdefensa. Tanto las organizaciones internacionales como los actores privados tienen la responsabilidad de realizar esfuerzos por regular el uso de esta tecnología. Esto no solo convertirá la ética en un valor fundamental del negocio, sino que contribuirá a la seguridad del ciberespacio.
Esta escalada de la tecnología alimenta la necesidad de utilizar la IA de forma defensiva, ya que un ataque impulsado por la IA resultaría más preciso y sofisticado, tanto en la fase de reconocimiento como en la de intrusión, imposibilitando así una respuesta “humana”. De esta manera, la IA defensiva permite analizar y responder instantáneamente a cualquier comportamiento anómalo observado y detectar amenazas sofisticadas. En definitiva, adoptar una perspectiva ética para garantizar la seguridad y la confidencialidad de los datos será un factor decisivo en un contexto determinado por una batalla IA vs. IA que girará en torno a la siguiente cuestión: ¿qué IA tendrá más datos para ser mejor que la otra?
En esta tribuna, Rainer W. Kaese, director sénior de Desarrollo de Negocio de HDD de…
En esta tribuna, Enric Delgado, director de Client Engineering Team de España, Portugal, Grecia e…
En esta tribuna, Justin Murrill, director de Responsabilidad Corporativa en AMD, explica cómo la arquitectura…
En esta tribuna, Mario Carranza, especialista en observabilidad de CPO WOCU-Monitoring, explica cómo la observabilidad…
Adam Meyers, responsable de operaciones contra adversarios en CrowdStrike, explica cómo combatir las amenazas transversales…
Ana Belén González Bartolomé, Head of Manufacturing, Logistics, Energy, and Utilities para España, Portugal e…