Los deepfakes generados por IA ponen en jaque a la autenticación biométrica
Gartner cree que, en 2026, 3 de cada 10 empresas dejarán de considerar fiables las soluciones verificación de la identidad de forma aislada.
Los ciberdelincuentes han aprendido a utilizar la tecnología de inteligencia artificial (IA) para fortalecer sus ataques, y esto es algo que deben tener en cuenta las compañías, ya que está afectando incluso a ámbitos como la autenticación y la verificación de identidad.
La consultora Gartner cree que, en 2026, 3 de cada 10 empresas dejarán de considerar fiables las soluciones de autenticación y verificación como método aislado debido a los ataques que se basan en deepfakes.
“En la última década, se han producido varios puntos de inflexión en campos de la IA que permiten la creación de imágenes sintéticas. Estas imágenes generadas artificialmente de rostros de personas reales, conocidas como deepfakes, pueden ser utilizadas por actores maliciosos para socavar la autenticación biométrica o hacerla ineficiente”, explica Akif Khan, analista vicepresidente de Gartner.
“Como resultado”, continúa, “las organizaciones pueden comenzar a cuestionar la fiabilidad de las soluciones de autenticación y verificación de la identidad, ya que no podrán saber si el rostro de la persona que se está verificando es una persona en vivo o un deepfake”.
Los expertos recomiendan combinar la detección de ataques de presentación y de ataques por inyección, así como la inspección de imágenes, para contrarrestar esta problemática.