¿Puede ayudar ChatGPT a detectar el phishing?

ChatGPT nos va descubriendo poco a poco sus posibilidades y aplicaciones. En algunas ocasiones, puede ser utilizada para el mal. Por ejemplo, para escribir código malicioso o crear correos electrónicos de phishing, como ya informábamos hace algunos meses.

Pero esta herramienta también puede ser explotada para combatir las ciberestafas. Quizá todavía no, pero podemos tener la esperanza de que sí que sea capaz de ayudarnos a medida que se vaya perfeccionando.

Al menos así se desprende de una investigación realizada por Kaspersky. Sus expertos han realizado una serie de pruebas para saber si esta plataforma puede detectar enlaces de phishing. Para ello, han utilizado gpt-3.5-turbo, el modelo que impulsa ChatGPT, aplicándolo sobre más de 2.000 enlaces de phishing mezclados con miles de URL seguras.

Los resultados han sido dispares, dependiendo de la pregunta realizada por los investigadores. Al plantear ‘¿Este enlace conduce a un sitio web de phishing?’, ChatGPT tuvo una tasa de detección del 87,2%, con un 23,2% de falsos positivos.

Ante la pregunta ‘¿Es seguro visitar este enlace?’, la tasa de detección es más alta, pero con más falsos positivos: 93,8% de tasa de detección y 63,4% de falsos positivos.

Los expertos de Kaspersky también han estudiado si ChatGPT puede clasificar e investigar los ciberataques. Como es sabido, los ciberatacantes suelen mencionar marcas populares en sus enlaces para engañar a la víctima, haciéndola creer que la URL es legítima y pertenece a una empresa de confianza.

En este caso, la investigación muestra que ChatGPT ofrece unos resultados sorprendentes en la identificación de posibles objetivos de phishing. Así pues, gpt-3.5-turbo ha sido capaz de resolver con éxito un objetivo de suplantación de identidad en más de la mitad de las URL, entre los que se encuentran portales y apps tan populares como Facebook, TikTok, Google, Amazon y numerosos bancos de todo el mundo. Además, Kaspersky remarca que lo ha hecho sin ninguna información adicional ni aprendizaje previo.

Sin embargo, la prueba demostró que ChatGPT tiene problemas al justificar lo que considera un enlace malicioso. Mientras que algunas de las explicaciones fueron correctas y se basaron en hechos probados, otras fueron erróneas, engañosas e inventadas. Lo que más desconcierta es que estas explicaciones erróneas son formuladas con una gran credibilidad, lo que puede despistar al usuario.

“A día de hoy, la detección de ataques de phishing con ChatGPT tiene limitaciones. Puede estar al nivel de un analista a la hora de razonar sobre los ataques de phishing y revelar objetivos potenciales, pero en ocasiones tiende a inventarse las respuestas y muestra resultados erróneos. Se puede decir que es una herramienta útil, pero de momento no va a revolucionar el panorama de la ciberseguridad”, declara Vladislav Tushkanov, principal data scientist de Kaspersky.

David Ramos

Soy periodista freelance especializado en información económica, gestión empresarial y tecnología. Yo no elegí esta especialidad. Fue ella la que me escogió a mí.

Recent Posts

Silicon Pulse: Titulares de la semana #33

Bienvenido a un nuevo episodio del podcast semanal Silicon Pulse, un espacio en el que…

10 horas ago

Los ingresos por productos de Snowflake superan los 900 millones de dólares

De los 942,1 millones de dólares que ingresó en el tercer trimestre, 900,3 millones corresponden…

19 horas ago

Check Point: 2024, récord en ciberataques con la IA como enemiga y aliada

“En 2024 se ha registrado un crecimiento exponencial en los ciberataques, con empresas de todo…

19 horas ago

Los ingresos trimestrales de NVIDIA aumentan un 94 %

Durante su trimestre más reciente acumuló un total de 35.100 millones de dólares.

21 horas ago

Sage concluye “un año de éxito”

Durante su ejercicio fiscal 2024 mejoró un 9 % los ingresos totales subyacentes, por encima…

21 horas ago

Inetum quiere duplicar su plantilla en Aragón

Ha estrenado oficinas en Zaragoza, está presente en el Parque Tecnológico Walqa y tiene previsto…

22 horas ago