Resumen

Cada vez que desbloqueas tu teléfono con la cara, un proceso invisible transforma tu imagen en algo que no podrás cambiar nunca más. Ese dato, a diferencia de una contraseña o un correo electrónico, no tiene botón de reinicio. Comprender qué convierte un dato común en biométrico y qué controles deben existir antes de procesarlo es fundamental para cualquier equipo que trabaje con productos digitales.

¿Qué hace que un dato sea biométrico?

Partiendo de la clasificación de datos personales, identificables y sensibles, los datos biométricos representan un nivel superior. Su diferencia clave frente a otros datos sensibles es la irreemplazabilidad: si se filtra tu correo, creas otro; si se compromete tu documento, se renueva. Pero si se filtra el mapa matemático de tu cara, no hay forma de generar una nueva [1:30].

Para que un dato califique como biométrico deben cumplirse tres condiciones simultáneas [2:08]:

  • Proviene de una característica física o conductual.
  • Se puede medir y convertir a formato digital.
  • Se usa para identificar o verificar automáticamente a una persona.

Si falta cualquiera de las tres, no estamos ante un dato biométrico en sentido estricto.

¿Una foto de tu cara es un dato biométrico?

No automáticamente. Una fotografía es un dato personal, pero el momento de transformación es lo que cambia la categoría [2:43]. Cuando un sistema toma esa foto y extrae distancias, proporciones y contornos convirtiéndolos en números, el resultado se denomina embedding: un vector numérico que representa rasgos únicos de una persona. No es una imagen, es una representación matemática que permite identificarte igual.

Lo mismo ocurre con la voz. Una grabación de audio es dato personal; un perfil vocal procesado ya es dato biométrico [3:18].

¿Eliminar la foto original protege la privacidad?

Uno de los errores más peligrosos es asumir que, al no guardar la foto y conservar solo el embedding, el dato deja de ser biométrico [3:36]. La analogía es clara: si convertís la llave de tu casa en un plano exacto y destruís la llave física, el plano sigue siendo la llave. Un embedding no se parece a tu cara, pero permite identificarte de la misma manera.

En Buenos Aires, el sistema de reconocimiento facial de prófugos fue cuestionado por esta razón. El argumento era "son solo fotos", pero cuando el sistema generó embeddings, un tribunal determinó que se trataba de datos biométricos [4:05]. El formato cambió y, con él, la naturaleza jurídica del dato.

¿Qué miden estos sistemas y qué riesgos reales existen?

En reconocimiento facial se analizan parámetros como la distancia entre ojos, forma de la nariz, mandíbula y pómulos. En reconocimiento de voz se miden tono, frecuencia, ritmo, formantes y los llamados MFCC (Mel-Frequency Cepstral Coefficients), que son formas matemáticas de capturar cómo suena una voz de manera única [4:35]. Dos audios de la misma persona generan vectores similares; dos personas distintas producen vectores diferentes.

Cuando estos datos caen en manos equivocadas, las consecuencias son graves [5:08]:

  • En Hong Kong, un empleado recibió una videollamada deepfake de su CFO y transfirió más de 25 millones de dólares.
  • En Ferrari, clonaron la voz del CEO; un empleado evitó el fraude al hacer una pregunta personal.
  • A escala masiva, deepfakes de figuras públicas promueven estafas y manipulan decisiones.

La combinación de cara más voz más contexto equivale a identificación total. Y si existen sesgos en el sistema, los errores no se compensan, se acumulan.

¿Cómo evaluar si realmente necesitas biometría?

Ante una propuesta concreta, como autenticación por voz en una app bancaria, conviene aplicar un marco de evaluación con cuatro ejes [6:10]:

  • Propósito definido: si el objetivo es autenticar antes de transferir, es válido. Pero frases como "después vemos otros usos" son una bandera roja.
  • Proporcionalidad: ¿se puede lograr lo mismo con menos riesgo? Un PIN más verificación de dispositivo funciona en la mayoría de los casos.
  • Transparencia del procesamiento: saber quién procesa la voz y dónde están los datos es requisito previo para avanzar.
  • Trazabilidad y revisión humana: debe existir registro de quién accede a los datos y siempre la posibilidad de intervención humana ante fallos.

¿Qué controles mínimos no son negociables?

Si la biometría resulta indispensable, hay que cumplir al menos estas condiciones [7:38]:

  • No guardar el audio crudo, solo el perfil vocal.
  • Obtener consentimiento explícito y reversible.
  • Aplicar cifrado robusto.
  • Usar siempre un segundo factor de autenticación.
  • Definir roles claros de acceso con revocación inmediata.
  • Borrar los datos cuando dejen de ser necesarios.
  • No reutilizar datos biométricos para fines distintos al original.
  • Garantizar auditoría independiente: si el mismo equipo que construye el sistema es el que lo audita, no es auditoría, es autoevaluación.

Para la mayoría de los casos, alternativas como passkeys, llaves físicas o códigos temporales ofrecen la misma seguridad con mucho menos riesgo [7:55].

Imagina una fintech que propone usar reconocimiento facial para login, guardar embeddings y reutilizarlos para detectar emociones del usuario. ¿Sigue siendo autenticación o cambió el propósito? ¿Qué riesgos nuevos aparecen? ¿Debería estar prohibido o al menos separado ese segundo uso? Deja tu análisis en los comentarios.