ChatGPT y los 6 riesgos asociados a su uso empresarial
Cuestiones como el sesgo, la privacidad y el fraude cibernético deben ser tenidas en cuenta por los profesionales del área legal y de cumplimiento.
ChatGPT se ha convertido en uno de los fenómenos tecnológicos más destacados de los últimos meses. Su popularidad se está extendiendo con rapidez, pero no viene exenta de riesgos.
“Los resultados generados por ChatGPT y otras herramientas de modelo de lenguaje extenso (LLM) son propensos a varios riesgos“, afirma Ron Friedmann, director analista sénior en Gartner, que cree que “los líderes legales y de cumplimiento deben evaluar si estos problemas presentan un riesgo material para su empresa y qué controles se necesitan”.
Porque, “de lo contrario, las empresas podrían verse expuestas a consecuencias legales, para su reputación y financieras“.
Concretamente, Gartner identifica seis peligros principales asociados a ChatGPT. Uno de ellos es la entrega de “respuestas inventadas e inexactas”. Esta herramienta puede proporcionar información imprecisa que parezca “superficialmente plausible”, según su descripción.
Es más, Friedmann cree que ChatGPT “es propenso a las ‘alucinaciones’, incluidas las respuestas inventadas que son incorrectas y las citas legales o científicas inexistentes”. Habría, por tanto, que verificar las respuestas en vez de darlas por válidas por defecto.
El “sesgo” y las consecuentes discriminaciones también tienen potencial para condicionar los resultados. “Es probable que la eliminación completa del sesgo sea imposible”, apunta Friedmann, “pero los aspectos legales y de cumplimiento deben mantenerse al tanto de las leyes que rigen el sesgo de la inteligencia artificial y asegurarse de que su orientación cumpla”.
“Esto puede implicar trabajar con expertos en la materia para garantizar que el resultado sea fiable y con funciones de auditoría y tecnología para establecer controles de calidad de datos”, explica.
Luego están las cuestiones de “privacidad y confidencialidad de los datos“. Gartner hace un llamamiento a las empresas para que valoren muy bien qué información se vincula con ChatGPT y advierte de que “información delicada, patentada o confidencial” podría terminar incorporada en “las respuestas para usuarios de fuera de la empresa”.
La recomendación en este caso es bastante clara. Pasa por prohibir directamente el ingreso de datos personales y confidenciales en herramientas públicas de inteligencia artificial.
Del mismo modo pueden producirse “riesgos de propiedad intelectual y derechos de autor” si este tipo de datos se han incluido en el proceso de entrenamiento de la herramienta, lo que implica automáticamente la violación de normativas. En Gartner son tajantes: “ChatGPT no ofrece referencias de fuentes ni explicaciones sobre cómo se genera su output“.
Otra área sensible tiene que ver con el “fraude cibernético”. Los delincuentes avanzan con la tecnología para perfeccionar sus ataques y ya están haciendo un mal uso de ChatGPT para sus tareas. Por ejemplo, para generar reseñas falsas.
Aplicaciones como esta son susceptibles a técnicas de inyección que terminan engañando al modelo para activar tareas que no habían sido desarrolladas en un principio, como la escritura de malware.
Por último, las empresas también deben tener en cuenta la “protección al consumidor”. Correrán el riesgo de perder la confianza de sus clientes si no les informan sobre el uso de ChatGPT para sus servicios de atención al cliente. Incluso pueden terminar acusadas de prácticas desleales. Para evitarlo, las organizaciones tienen que ser claras y hacer la divulgación pertinente.