La mitad de las empresas excluyen a sus equipos de ciberseguridad en la implementación de IA, según ISACA

La mitad de las empresas excluyen a sus equipos de ciberseguridad en la implementación de IA, revela informe de ISACA

Según un estudio de ISACA, el 45% de las empresas no incluye a sus equipos de ciberseguridad en el desarrollo y adopción de soluciones de IA, lo cual plantea riesgos importantes.

Un reciente informe de ISACA, una asociación global que promueve la confianza en la tecnología, revela que casi la mitad (45%) de las empresas no involucra a sus equipos de ciberseguridad en el desarrollo, implementación y adopción de soluciones de Inteligencia Artificial (IA). Este hallazgo forma parte del “Informe sobre el Estado de la Ciberseguridad 2024” de ISACA, que recopila opiniones de más de 1,800 profesionales de ciberseguridad y destaca la creciente preocupación en torno al uso de IA en operaciones de seguridad sin la debida supervisión de expertos en seguridad.

El estudio de ISACA destaca que solo el 35% de los profesionales de ciberseguridad están implicados en el desarrollo de políticas para la implementación de IA en sus empresas. Esta falta de participación en un ámbito tan crítico plantea riesgos significativos, especialmente en un contexto donde las aplicaciones de IA en ciberseguridad han ganado popularidad. Entre los usos más comunes de la IA en operaciones de seguridad, el informe menciona la automatización de la detección y respuesta ante amenazas (28%), la seguridad de dispositivos de punto final (27%) y la automatización de tareas de seguridad rutinarias (24%).

La IA y el desafío de la ciberresiliencia

En medio de una creciente demanda de soluciones de ciberseguridad avanzadas, ISACA advierte que las organizaciones deben integrar a los equipos de seguridad en todas las etapas del ciclo de vida de la IA, desde su desarrollo hasta su implementación. “La IA tiene un gran potencial para aliviar la carga de trabajo de los profesionales de ciberseguridad, especialmente en áreas como la automatización de tareas y la detección de amenazas. Sin embargo, los líderes de seguridad no pueden centrarse solo en el papel de la IA en la operación de seguridad; es fundamental que la función de seguridad participe en cada etapa del proceso”, indicó Jon Brandt, Director de Prácticas Profesionales e Innovación en ISACA.

Además, ISACA está desarrollando recursos y cursos especializados para ayudar a los profesionales a adaptarse a los desafíos que plantea esta tecnología. Esto incluye temas sobre autenticación adaptativa en la era de los deepfakes, integración de IA con computación cuántica para mejorar la seguridad y la importancia de mantener políticas de IA ética. Entre los cursos más recientes, ISACA ofrece programas sobre redes neuronales, modelos de lenguaje de gran escala y deep learning, disponibles en su plataforma de aprendizaje en línea.

Recomendaciones para una IA ética y responsable

Otro punto clave del informe es la creciente necesidad de establecer políticas de IA ética y responsable, especialmente en el contexto de la Unión Europea. ISACA ha publicado un informe titulado “Comprendiendo el Acta de IA de la UE: Requisitos y Próximos Pasos”, que detalla las normativas que entrarán en vigor en agosto de 2026. Estas normativas exigirán la auditoría y trazabilidad de los sistemas de IA, además de designar un líder de IA en cada empresa que supervise las herramientas de inteligencia artificial en uso y garantice el cumplimiento de las normativas de privacidad y ciberseguridad.

Para ISACA, la creación de una política de IA ética requiere responder a preguntas clave como “¿Quién está impactado por el alcance de esta política?”, “¿Cuáles son los términos aceptables de uso?” y “¿Cómo se asegurarán los requisitos legales y de cumplimiento?”. Estas consideraciones son fundamentales para que las empresas puedan aprovechar la IA sin comprometer la seguridad ni la confianza digital.

Educación y capacitación en IA para la ciberseguridad

Para acompañar la transformación en el ámbito de la ciberseguridad impulsada por la IA, ISACA está lanzando un nuevo programa de certificación para Analistas de Operaciones de Ciberseguridad. Este certificado, que estará disponible a partir de enero de 2025, se centra en habilidades técnicas críticas, como la evaluación de amenazas, la identificación de vulnerabilidades y la recomendación de contramedidas para prevenir incidentes de seguridad en un entorno cada vez más digitalizado.

En conclusión, el informe de ISACA subraya que la exclusión de los equipos de ciberseguridad en la implementación de IA representa un riesgo considerable para las empresas. La asociación invita a las organizaciones a integrar de manera activa a estos equipos y a capacitar a sus profesionales para garantizar un uso seguro y ético de la inteligencia artificial. Para más información, el informe completo está disponible en el sitio web de ISACA junto con recursos adicionales sobre ciberseguridad y tecnología.