95-porciento-directivos-considera-necesario-mayor-conocimiento-uso-empleados-hacen-ia-generativa-estar-protegidos-frente-riesgos-seguridad

La inteligencia artificial generativa se ha convertido en un aliado estratégico para las compañías, pero a la alta dirección le preocupa los riesgos que suponen estas herramientas.  

De esta forma lo revela un informe de Kaspersky realizado entre directivos españoles, que señala que el 96% de los encuestados en España cree que sus empleados utilizan regularmente este tipo de sistemas. Además, del total de los directivos encuestados en España, solo el 19% ha debatido la imposición de reglas para controlar el uso de GenAI, a pesar de que el 95% afirma que es necesario un mayor conocimiento del uso que los empleados hacen de esta tecnología para estar protegidos frente a riesgos de seguridad críticos o fugas de datos. De hecho, un 64% teme pérdidas económicas en las organizaciones.

La seguridad de la información depende en gran medida de la sensibilización y la normativa de las empresas, pero, de acuerdo con los empleados consultados, el 45,5% de las empresas carece de reglas internas sobre el uso de Chat GPT. Un 19% afirma que las hay, pero no son claras; un 7% indica que son claras, pero no se respetan; y solo en un 27% son claras y, además, se aplican.

Estos datos resultan contradictorios si se considera que la mitad de los ejecutivos españoles tiene previsto usar GenIA y automatizar tareas en el futuro. El 46% manifestó su interés por incorporar esta tecnología en sus propias actividades para aumentar la productividad, y también en las de los empleados (43%).

“GenIA brinda enormes ventajas de productividad a las empresas. Nuestros estudios muestran que los ejecutivos han percibido su presencia en las organizaciones, aunque admiten que el alcance de su uso es un enigma. Los sistemas GenIA están en claro auge, y cuanto más tiempo operen sin control más difícil será proteger áreas del negocio como recursos humanos, finanzas, marketing o incluso TI”, advierte David Emm, analista principal de Seguridad de Kaspersky.

El problema de privacidad de Chat GPT

Por otra parte, según el informe, el 16% de los españoles que usa Chat GPT en el trabajo piensa que no es relevante mantener la privacidad en las preguntas que hacen al chatbot, y el 31% piensa que es relevante no divulgar datos privados, pero aun así lo hace.

Chat GPT asegura que no divulga la información proporcionada por el usuario a terceros. Solo la conserva para mejorar la plataforma y ofrecer respuestas lo más exactas posibles, usando los datos recogidos para mejorar el modelo de lenguaje y optimizar al máximo la experiencia del usuario. “No obstante, hay que tener en cuenta que la política de privacidad de Chat GPT se refiere solo al uso de los datos de los usuarios registrados en dicha plataforma, pero no aclara nada sobre el uso de datos personales que puede hacer la IA de otras fuentes, como las que usa para generar los textos que devuelve”, expone Marc Rivero, Senior Security Researcher de Kaspersky.

Fuente: IT Reseller