Proteger los modelos de inteligencia artificial generativa y los datos que los alimentan es tan importante como desplegarlos. Azure OpenAI Service ofrece varias capas de seguridad —desde el aislamiento de red hasta la encriptación y el control de acceso basado en roles— que permiten cumplir con políticas empresariales sin sacrificar funcionalidad. A continuación se explican los mecanismos disponibles y cómo configurarlos.
¿Cómo aislar el servicio de redes públicas?
Por defecto, al desplegar un recurso de Azure OpenAI Service, cualquier dirección IP puede consultarlo [0:36]. En entornos empresariales esto representa un riesgo para la privacidad y la seguridad de la información contenida en los asistentes virtuales o en la configuración de los modelos.
Para restringir el acceso existen dos opciones principales:
- Agregar una VNET (Virtual Network): se asocia una red virtual desde la cual solo las personas autorizadas pueden acceder al servicio o manipular los modelos desplegados [1:18].
- Restringir por IPs específicas: se habilita únicamente un conjunto limitado de direcciones IP, aislando el servicio del resto de Internet [1:48].
¿Qué son los private endpoints y por qué usarlos?
Los private endpoints añaden otra capa de protección. Permiten que la comunicación entre cualquier aplicación o servicio de Azure y la API de OpenAI Service pase primero por un proceso de autenticación seguro [2:00]. Así se garantiza que solo los servicios debidamente configurados pueden consumir los modelos de inteligencia artificial generativa.
¿Cómo funciona el control de acceso basado en roles?
El acceso basado en roles (Role-Based Access Control o RBAC) es el mecanismo de gobernanza que define quién puede modificar el recurso, solicitar un aumento de cuota o gestionar permisos administrativos [2:28].
Desde Azure Portal, en la sección de Control de acceso, se pueden:
- Validar los roles asignados actualmente.
- Crear nuevas asignaciones de rol, por ejemplo, nombrar a otra persona como coadministrador o asignar un perfil con menos privilegios [3:05].
Esto resulta especialmente útil cuando un equipo de infraestructura despliega los servicios y luego asigna permisos al equipo de desarrolladores para que prueben los modelos sin tener privilegios administrativos completos [3:30].
¿Qué papel juega la encriptación en Azure OpenAI?
Azure OpenAI Service permite dos modalidades de encriptación [3:50]:
- Claves manejadas por Microsoft: ideales para entornos de prueba, POCs o MVPs.
- Claves manejadas por el cliente: ofrecen un proceso de encriptación más personalizado para escenarios con requisitos de seguridad más estrictos.
Estas claves encriptan los datos que se cargan en el servicio, incluyendo los datasets que soportan procesos de fine tuning en modelos de GPT [4:18].
¿Cómo manejar datasets en Azure OpenAI Studio?
Dentro de Azure OpenAI Studio existe la sección de archivos de datos donde se almacenan, entre otros, los resultados de evaluación de modelos que han pasado por fine tuning [4:38].
Para cargar un dataset se dispone de tres orígenes:
- Archivos desde una ubicación local.
- Una cuenta de blob storage.
- Una URL externa.
El proceso consiste en crear primero un dataset de datos de entrenamiento y luego otro de datos de validación [5:20]. Al subir los archivos, el sistema los pone en un estado de habilitación antes de que estén disponibles.
¿Por qué es importante gestionar los datos como datasets?
Cargar la información como datasets formales garantiza que los datos residan en un ambiente seguro y encriptado [5:00]. Además, se habilita la posibilidad de manejar versionamiento de datasets, una práctica alineada con flujos de MLOps y DevOps que facilita la trazabilidad y la reproducibilidad de los procesos de ajuste de modelos [5:05].
De esta manera, las personas no autorizadas no podrán acceder a la información utilizada para entrenar o ajustar los modelos, cumpliendo así con las políticas empresariales que exige una solución de inteligencia artificial generativa en producción.
Si ya tienes un recurso de Azure OpenAI Service desplegado, prueba aislar su red, configurar roles diferenciados y cargar tus propios datasets para experimentar de primera mano cada una de estas capas de seguridad.