Protección de Datos al Usar IA en el Trabajo Diario
Clase 9 de 12 • Curso de Inteligencia Artificial para Finanzas
¿Estás considerando utilizar herramientas de IA en tus tareas del día a día? Aquí te contamos cómo puedes hacerlo de forma segura con el objetivo de proteger tus datos financieros y la información de tu empresa.
- Valida las garantías de privacidad de la información de las herramientas que vayas a implementar en tu flujo de trabajo. En el caso de OpenAI, la empresa que desarrolló ChatGPT, en su apartado de ‘Seguridad’, expone las herramientas de mitigación de riesgos, las mejores prácticas para un uso responsable y la monitorización para detectar el uso indebido de la tecnología.
- Verifica la política de privacidad de producto. Puedes entender cuál es la información que recolectan, cuál es el propósito y cómo se emplea la información que decidas compartir con el modelo. Debes revisar además si en toda la implementación de IA dentro de tu trabajo están cumpliendo también las políticas de privacidad de tu empresa.
-
Evalúa que existan controles mínimos de seguridad. Asegúrate que las plataformas, modelos o tecnologías que vayas a utilizar incluyan medidas de seguridad, control de usuario o que puedan tener doble factor de autenticación para minimizar los riesgos de un uso indebido del servicio.
Aplica también un control de gastos a través de límites de uso siempre que la plataforma lo permita para configurar el monto de dinero máximo permitido y una vez se alcance, el permiso va a rechazar cualquier petición. Esto es muy útil para minimizar riesgos asociados al mal uso de una plataforma de IA.
Caso de Estudio: Data Leak en Samsung
https://mashable.com/article/samsung-chatgpt-leak-details
En Abril del 2023 los empleados de Samsung compartieron accidentalmente información confidencial mientras usaban ChatGPT para obtener ayuda en el trabajo. Si bien la compañía previamente había permitido a sus equipos usar ChatGPT para verificar código fuente, se informó de tres equipos internos de empleados de Samsung que filtraron involuntariamente información confidencial a ChatGPT.
- Un empleado pegó un código fuente confidencial en el chat para verificar si había errores.
- Otro, compartió código con ChatGPT y "solicitó optimización de código".
- Y un tercero, compartió una grabación de una reunión para convertirla en notas para una presentación.
Esa información, desde ese momento, quedó disponible para que ChatGPT alimentara su modelo.
Samsung tomó medidas inmediatas al limitar la capacidad de carga de ChatGPT a 1024 bytes por persona e investigó a las personas involucradas en la filtración. Como en este y otros casos, la política de datos de ChatGPT anuncia que usa la información suministrada para entrenar sus modelos a menos que el usuario solicite optar por no participar y en la guía de uso se advierte explícitamente a los usuarios no compartir información sensible en las conversaciones.
¿Cómo dar de baja tu información de ChatGPT?
OpenAI proporciona el siguiente formulario para solicitar la eliminación de tu información sensible del modelo. Con esto puedes garantizar que esos datos que compartas en la herramienta no van a ser usados para otros propósitos.
Security tips
Algunos aspectos de privacidad a tener en cuenta son:
-
Uso limitado y propósito específico:
- Se deben establecer políticas de control de acceso a los datos personales utilizados para el entrenamiento del modelo.
- Mantener el pool de datos en varias ubicaciones, aplicando esquemas de replicación de información o backup.
-
Imparcialidad: Verificar que los algoritmos no tomen decisiones (o respondan) sobre personas o individuos puntuales. Esto podría generar problemas legales.
-
Mínimo dato posible y limitar almacenamiento: No recolectar datos innecesarios, anonimizar la mayor cantidad de datos posibles, limitar consultas o queries, aplicar políticas de safe-delete de datos periódicamente, no ubicar links en datasets, restringir la cantidad de stakeholders que tienen acceso a los datos y aplicar cifrado de almacenamiento con algoritmos matemáticos robustos.
-
Transparencia: El usuario final debe conocer aspectos relevantes del modelo como documentación, detalles de dataset, trazabilidad y explicabilidad del modelo.
-
Derechos de privacidad (opt-out data): En cuanto a los datos personales utilizados por los modelos AI, el dueño de esos datos puede aplicar sus derechos.
-
Precisión: Se debe asegurar que los datos obtenidos sean de fuentes confiables y debe existir garantía de integridad.
-
Consentimiento: Básicamente es tener las herramientas para evidenciar que los dueños de los datos personales utilizados han aceptado el uso en modelos de AI.
Siguiendo estas recomendaciones tienes lo necesario para sacarle provecho de forma segura a las herramientas de inteligencia artificial y convertirla en un aliado que te ofrece ventajas para trabajar de forma más efectiva y productiva.