CIBERSEGURIDAD

Cómo utilizar ChatGPT en el trabajo de manera segura y sin comprometer los datos de la empresa

Cómo utilizar ChatGPT en el trabajo de manera segura y sin comprometer los datos de la empresa

"Al utilizar la IA los datos que introducimos dejan de pertenecernos en cuanto pulsamos el botón de envío", aseguran desde Eset

Los debates sobre las herramientas de IA están a la orden del día y cada vez son más las personas que lo utilizan en su trabajo, debido a su capacidad para aumentar la productividad y ahorrar tiempo. Sin embargo, antes de aprovechar las ventajas de las innovadoras herramientas de IA, hay que saber cómo interactuar con ellas de forma segura, sin poner en peligro la seguridad de los datos de la empresa.

“Las herramientas de IA pueden ayudarnos a desarrollar ideas, resumir o reformular fragmentos de texto, o incluso crear una base para una estrategia empresarial o encontrar un error en un código. Sin embargo, al utilizar la IA debemos recordar que los datos que introducimos en las herramientas dejan de pertenecernos en cuanto pulsamos el botón de envío”, recuerda Josep Albors, director de investigación y concienciación de ESET España.

Una de las principales preocupaciones a la hora de utilizar grandes modelos lingüísticos (LLM), como ChatGPT, es compartir datos sensibles con grandes empresas internacionales. Estos modelos son texto en línea, lo que les permite interpretar y responder eficazmente a las consultas de los usuarios. Sin embargo, cada vez que interactuamos con un chatbot y le pedimos información o ayuda, podemos compartir inadvertidamente datos sobre nosotros o nuestra empresa, ya que, cuando escribimos una consulta para un chatbot, los datos introducidos se hacen públicos. “Esto no significa que los chatbots utilizan inmediatamente esta información como base para responder a otros usuarios, pero el proveedor de LLM o sus socios pueden tener acceso a estas consultas y podrían incorporarlas a futuras versiones de la tecnología”, añade Albors.

En este sentido, OpenAI, la organización que está detrás de ChatGPT, introdujo la opción de desactivar el historial de chat, lo que evita que los datos de los usuarios se utilicen para entrenar y mejorar los modelos de IA de OpenAI. De esta forma, los usuarios tienen más control sobre sus datos. Por tanto, si los empleados de una empresa desean utilizar herramientas como ChatGPT, es conveniente que desactiven el historial de chat.

Pero incluso con el historial de chat desactivado, todos los datos de los avisos siguen almacenados en los servidores del chatbot. Al guardar todos los avisos en servidores externos, existe la amenaza potencial de acceso no autorizado por parte de piratas informáticos. Además, los errores técnicos pueden permitir ocasionalmente que personas no autorizadas accedan a datos pertenecientes a otros usuarios del chatbot. Por ello, ESET aconseja sobre cómo utilizar plataformas como ChatGPT de forma segura, y advierte de los errores más comunes al utilizar esta herramienta y cómo evitarlos:

  • Utilizar datos de clientes como entrada: El primer error común que puedes cometer al utilizar las LLM es compartir inadvertidamente información sensible sobre los clientes de tu empresa. Es aconsejable que anonimices permanentemente tus consultas antes de introducirlas en los chatbots. Para proteger la privacidad de los clientes, anímales a revisar y redactar cuidadosamente los datos sensibles, como nombres, direcciones o números de cuenta. La mejor práctica es evitar el uso de información personal en primer lugar y basarse en preguntas o consultas generales.
  • Cargar documentos confidenciales en los chatbots: Los chatbots pueden ser herramientas valiosas para resumir rápidamente grandes volúmenes de datos y crear borradores, presentaciones o informes. Aun así, subir documentos a herramientas como ChatGPT puede significar poner en peligro los datos de la empresa o del cliente almacenados en ellos. Aunque puede resultar tentador copiar documentos y pedir a la herramienta que cree resúmenes o sugerencias para diapositivas de presentaciones, no es una forma de proteger los datos. Esto se aplica a los documentos importantes, como las estrategias de desarrollo, pero también a los menos esenciales -como las notas de una reunión-, que pueden llevar a los empleados a descubrir el preciado ‘know-how’ de la empresa. Para mitigar este riesgo, es conveniente poner en marcha políticas estrictas para el manejo de documentos sensibles y limitar el acceso a dichos registros con una política de 'necesidad de saber'. Es muy importante revisar manualmente los documentos antes de solicitar un resumen o asistencia del chatbot.
  • Exponer los datos de la empresa en los avisos: Al igual que introducir documentos confidenciales o datos de clientes en los chatbots, incluir datos confidenciales de la empresa en la solicitud es una práctica común, aunque potencialmente perjudicial, que puede conducir a un acceso no autorizado o a la filtración de información confidencial. Para abordar este problema, la anonimización inmediata debería ser una práctica esencial. Esto significa que nunca se deben introducir nombres, direcciones, datos financieros u otra información personal en las solicitudes de chatbot. Por este motivo, una práctica útil sería utilizar mensajes estandarizados como plantillas.

“Las herramientas de IA no son sólo el futuro de nuestro trabajo; ya están presentes. Como los avances en el campo de la IA y, en concreto, del machine learning avanzan día a día, las empresas necesitan inevitablemente seguir las tendencias y adaptarse a ellas. Por eso, es importante preguntarse si podemos utilizar estas nuevas tecnologías sin arriesgarse a una fuga de datos”, concluye Josep Albors.