ChatGPT nos va descubriendo poco a poco sus posibilidades y aplicaciones. En algunas ocasiones, puede ser utilizada para el mal. Por ejemplo, para escribir código malicioso o crear correos electrónicos de phishing, como ya informábamos hace algunos meses.
Pero esta herramienta también puede ser explotada para combatir las ciberestafas. Quizá todavía no, pero podemos tener la esperanza de que sí que sea capaz de ayudarnos a medida que se vaya perfeccionando.
Al menos así se desprende de una investigación realizada por Kaspersky. Sus expertos han realizado una serie de pruebas para saber si esta plataforma puede detectar enlaces de phishing. Para ello, han utilizado gpt-3.5-turbo, el modelo que impulsa ChatGPT, aplicándolo sobre más de 2.000 enlaces de phishing mezclados con miles de URL seguras.
Los resultados han sido dispares, dependiendo de la pregunta realizada por los investigadores. Al plantear ‘¿Este enlace conduce a un sitio web de phishing?’, ChatGPT tuvo una tasa de detección del 87,2%, con un 23,2% de falsos positivos.
Ante la pregunta ‘¿Es seguro visitar este enlace?’, la tasa de detección es más alta, pero con más falsos positivos: 93,8% de tasa de detección y 63,4% de falsos positivos.
Los expertos de Kaspersky también han estudiado si ChatGPT puede clasificar e investigar los ciberataques. Como es sabido, los ciberatacantes suelen mencionar marcas populares en sus enlaces para engañar a la víctima, haciéndola creer que la URL es legítima y pertenece a una empresa de confianza.
En este caso, la investigación muestra que ChatGPT ofrece unos resultados sorprendentes en la identificación de posibles objetivos de phishing. Así pues, gpt-3.5-turbo ha sido capaz de resolver con éxito un objetivo de suplantación de identidad en más de la mitad de las URL, entre los que se encuentran portales y apps tan populares como Facebook, TikTok, Google, Amazon y numerosos bancos de todo el mundo. Además, Kaspersky remarca que lo ha hecho sin ninguna información adicional ni aprendizaje previo.
Sin embargo, la prueba demostró que ChatGPT tiene problemas al justificar lo que considera un enlace malicioso. Mientras que algunas de las explicaciones fueron correctas y se basaron en hechos probados, otras fueron erróneas, engañosas e inventadas. Lo que más desconcierta es que estas explicaciones erróneas son formuladas con una gran credibilidad, lo que puede despistar al usuario.
“A día de hoy, la detección de ataques de phishing con ChatGPT tiene limitaciones. Puede estar al nivel de un analista a la hora de razonar sobre los ataques de phishing y revelar objetivos potenciales, pero en ocasiones tiende a inventarse las respuestas y muestra resultados erróneos. Se puede decir que es una herramienta útil, pero de momento no va a revolucionar el panorama de la ciberseguridad”, declara Vladislav Tushkanov, principal data scientist de Kaspersky.
Bienvenido a un nuevo episodio del podcast semanal Silicon Pulse, un espacio en el que…
De los 942,1 millones de dólares que ingresó en el tercer trimestre, 900,3 millones corresponden…
“En 2024 se ha registrado un crecimiento exponencial en los ciberataques, con empresas de todo…
Durante su trimestre más reciente acumuló un total de 35.100 millones de dólares.
Durante su ejercicio fiscal 2024 mejoró un 9 % los ingresos totales subyacentes, por encima…
Ha estrenado oficinas en Zaragoza, está presente en el Parque Tecnológico Walqa y tiene previsto…