ChatGPT y los 6 riesgos asociados a su uso empresarial

ChatGPT se ha convertido en uno de los fenómenos tecnológicos más destacados de los últimos meses. Su popularidad se está extendiendo con rapidez, pero no viene exenta de riesgos.

“Los resultados generados por ChatGPT y otras herramientas de modelo de lenguaje extenso (LLM) son propensos a varios riesgos“, afirma Ron Friedmann, director analista sénior en Gartner, que cree que “los líderes legales y de cumplimiento deben evaluar si estos problemas presentan un riesgo material para su empresa y qué controles se necesitan”.

Porque, “de lo contrario, las empresas podrían verse expuestas a consecuencias legales, para su reputación y financieras“.

Concretamente, Gartner identifica seis peligros principales asociados a ChatGPT. Uno de ellos es la entrega de “respuestas inventadas e inexactas”. Esta herramienta puede proporcionar información imprecisa que parezca “superficialmente plausible”, según su descripción.

Es más, Friedmann cree que ChatGPT “es propenso a las ‘alucinaciones’, incluidas las respuestas inventadas que son incorrectas y las citas legales o científicas inexistentes”. Habría, por tanto, que verificar las respuestas en vez de darlas por válidas por defecto.

El “sesgo” y las consecuentes discriminaciones también tienen potencial para condicionar los resultados. “Es probable que la eliminación completa del sesgo sea imposible”, apunta Friedmann, “pero los aspectos legales y de cumplimiento deben mantenerse al tanto de las leyes que rigen el sesgo de la inteligencia artificial y asegurarse de que su orientación cumpla”.

“Esto puede implicar trabajar con expertos en la materia para garantizar que el resultado sea fiable y con funciones de auditoría y tecnología para establecer controles de calidad de datos”, explica.

Luego están las cuestiones de “privacidad y confidencialidad de los datos“. Gartner hace un llamamiento a las empresas para que valoren muy bien qué información se vincula con ChatGPT y advierte de que “información delicada, patentada o confidencial” podría terminar incorporada en “las respuestas para usuarios de fuera de la empresa”.

La recomendación en este caso es bastante clara. Pasa por prohibir directamente el ingreso de datos personales y confidenciales en herramientas públicas de inteligencia artificial.

Del mismo modo pueden producirse “riesgos de propiedad intelectual y derechos de autor” si este tipo de datos se han incluido en el proceso de entrenamiento de la herramienta, lo que implica automáticamente la violación de normativas. En Gartner son tajantes: “ChatGPT no ofrece referencias de fuentes ni explicaciones sobre cómo se genera su output“.

Otra área sensible tiene que ver con el “fraude cibernético”. Los delincuentes avanzan con la tecnología para perfeccionar sus ataques y ya están haciendo un mal uso de ChatGPT para sus tareas. Por ejemplo, para generar reseñas falsas.

Aplicaciones como esta son susceptibles a técnicas de inyección que terminan engañando al modelo para activar tareas que no habían sido desarrolladas en un principio, como la escritura de malware.

Por último, las empresas también deben tener en cuenta la “protección al consumidor”. Correrán el riesgo de perder la confianza de sus clientes si no les informan sobre el uso de ChatGPT para sus servicios de atención al cliente. Incluso pueden terminar acusadas de prácticas desleales. Para evitarlo, las organizaciones tienen que ser claras y hacer la divulgación pertinente.

Mónica Tilves

Licenciada en Xornalismo por la Universidad de Santiago de Compostela en la especialidad de Periodismo Electrónico y Multimedia. Apasionada de los gadgets, la fotografía digital, el diseño web y el arte. Tras un primer contacto con el mundo de la prensa escrita y con la suficiencia investigadora debajo del brazo, me decanto por los medios online. Cubro la actualidad informativa en Silicon Week desde 2011, además de colaborar en otras publicaciones del grupo NetMediaEurope en España como Silicon News. Ahora en Silicon.es.

Recent Posts

Los mensajes RCS, otra vía de acceso para ciberataques

Los mensajes RCS ofrecen muchas más posibilidades que los SMS, pero también abren la puerta…

1 día ago

Telefónica Empresas ayudará a Microsoft a expandir los Copilot+ PC por España

Acompañará a las empresas en sus procesos de equipamiento, desde la elección del hardware hasta…

2 días ago

IBM y Esade promueven el uso de la IA en los Consejos de Administración

Juntos, trabajarán en la formación y la actualización de habilidades para que los consejeros impulsen…

2 días ago

ASUS lanza un Mini PC con inteligencia artificial

Este dispositivo incluye entre sus especificaciones procesador Intel Core Ultra (Serie 2) y botón Copilot.

2 días ago

EasyVisa adquiere una participación mayoritaria en OTRS Group

Ya cuenta en su poder con más del 90 % de las acciones del proveedor…

2 días ago

SoftwareOne y Crayon acuerdan fusionarse

Los actuales consejeros delegados, Raphael Erb y Melissa Mulholland, se convertirán en co-CEOs de la…

2 días ago