6-riesgos-deben-considerar-empresas-usar-chatgpt

En los últimos meses, el ChatGPT se ha convertido en uno de los fenómenos tecnológicos más destacados. Su popularidad se está extendiendo con rapidez, pero no viene exenta de riesgos.

En este contexto, Gartner identifica seis peligros principales asociados a ChatGPT. Uno de ellos es la entrega de “respuestas inventadas e inexactas”. Esta herramienta puede proporcionar información imprecisa que parezca “superficialmente plausible”, según su descripción. Asimismo, Ron Friedmann, director analista sénior en Gartner, cree que ChatGPT “es propenso a las ‘alucinaciones’, incluidas las respuestas inventadas que son incorrectas y las citas legales o científicas inexistentes”. Habría, por tanto, que verificar las respuestas en vez de darlas por válidas por defecto.

Por otra parte, el “sesgo” y las consecuentes discriminaciones también tienen potencial para condicionar los resultados. “Es probable que la eliminación completa del sesgo sea imposible”, apunta Friedmann, “pero los aspectos legales y de cumplimiento deben mantenerse al tanto de las leyes que rigen el sesgo de la inteligencia artificial y asegurarse de que su orientación cumpla”. “Esto puede implicar trabajar con expertos en la materia para garantizar que el resultado sea fiable y con funciones de auditoría y tecnología para establecer controles de calidad de datos”, explica.

Los aspectos relacionados con la privacidad y confidencialidad de los datos es otro aspecto que considerar. Gartner hace un llamamiento a las empresas para que valoren muy bien qué información se vincula con ChatGPT y advierte de que “información delicada, patentada o confidencial” podría terminar incorporada en “las respuestas para usuarios de fuera de la empresa”. En este caso, la recomendación pasa por prohibir directamente el ingreso de datos personales y confidenciales en herramientas públicas de inteligencia artificial.

Del mismo modo pueden producirse “riesgos de propiedad intelectual y derechos de autor” si este tipo de datos se han incluido en el proceso de entrenamiento de la herramienta, lo que implica automáticamente la violación de normativas. En Gartner son tajantes: “ChatGPT no ofrece referencias de fuentes ni explicaciones sobre cómo se genera su output”.

Por otra parte, el “fraude cibernético” es otra área sensible. Los delincuentes avanzan con la tecnología para perfeccionar sus ataques y ya están haciendo un mal uso de ChatGPT para sus tareas. Por ejemplo, para generar reseñas falsas. Aplicaciones como esta son susceptibles a técnicas de inyección que terminan engañando al modelo para activar tareas que no habían sido desarrolladas en un principio, como la escritura de malware.

En último lugar, las compañías también deben tener en cuenta la “protección al consumidor”. Correrán el riesgo de perder la confianza de sus clientes si no les informan sobre el uso de ChatGPT para sus servicios de atención al cliente.. Para evitarlo, las organizaciones tienen que ser claras y hacer la divulgación pertinente.

Fuente: Silicon.es