Categories: Seguridad

Ciberriesgos asociados al uso de la inteligencia artificial ChatGPT

La utilización cada vez más habitual de herramientas de inteligencia artificial (IA) conversacional, como la popular ChatGPT, suponen la posibilidad de riesgos potenciales muy diversos. Desde la automatización de algunas tareas que puede llevar a poner en peligro algunos puestos laborales uso malintencionado que puede derivarse de estas herramientas.

Desde Panda Security han llamado la atención sobre cómo los ciberdelincuentes pueden aprovechar las malas prácticas en cuanto al uso de estas herramientas de IA. En el caso de ChatGPT se trata de un modelo de lenguaje que ha recibido como entrenamiento una gran cantidad de datos de texto, siendo capaz de generar respuestas similares a las que ofrecería un operador humano a preguntas efectuadas en lenguaje natural, algo de gran utilidad por ejemplo como chatbot capaz de ofrecer asistencia a clientes y usuarios.

Esta vía podría utilizarse para la difusión de información falsa que podrían afectar a los mercados financieros o a través de redes sociales a los medios de comunicación y la opinión pública. Sería un paso más allá de la manipulación informativa que se detectó años atrás con motivo de las elecciones presidenciales en Estados Unidos.

Ya se han difundido casos de éxito en los que a través de IA se han mejorado porciones de código en programas. Esto permitiría a los ciber delincuentes mejorar el código de virus y malware para acceder a equipos ajenos.

Al ser capaz de mantener conversaciones casi indistinguibles de las que se tendría con una persona real mediante IA podrían suplantar se identidades o generar identidades falsas, convincentes en su interacción, a través de las que llevar a cabo distintas acciones delictivas, desde estafas hasta abuso de menores. Además los idiomas no supondrían una barrera puesto que una vez generado el modelo conversacional la propia IA sería capaz de traducir las frases.

Por último la aplicación de la IA a los deepfakes mejoraría la generación de fotografías, vídeos y audios en los que la apariencia, movimientos y voz de personas reales sería imitada de una manera completamente convincente. Este aspecto resalta VALL-E, herramienta recientemente creada por Microsoft capaz de sintetizar texto dando como resultado una voz capaz de imitar la de una persona real con apenas un clip de audio de tres segundos de duración.

Antonio Rentero

Recent Posts

Salesforce lanza Agentforce 2.0: la plataforma de trabajo digital impulsada por agentes de IA autónomos

Salesforce presenta Agentforce 2.0, la plataforma digital que transforma el trabajo empresarial con agentes de…

12 horas ago

@aslan prepara un plan de divulgación sobre tendencias tecnológicas para 2025

Estas tendencias giran en torno a la resiliencia de los datos, la ciberseguridad, el puesto…

13 horas ago

Linda, de Bewe software, una asistente de IA para optimizar pymes en LATAM y España

Linda, el innovador asistente de IA desarrollado por Bewe Software, ha sido galardonado como Caso…

14 horas ago

Sandisk renueva su identidad corporativa

Bajo el lema Mindset of Motion, defiende que las personas puedan experimentar el potencial de…

14 horas ago

El próximo smartphone de OnePlus ya tiene fecha de salida: el 7 de enero

Será el primer terminal OnePlus con doble certificación IP68 e IP69.

15 horas ago

Mate X6, el nuevo móvil plegable de HUAWEI

HUAWEI introduce también la serie de teléfonos móviles Nova 13 y los auriculares FreeClip y…

15 horas ago