Proteger la información de las personas no es solo una obligación legal, es una responsabilidad que atraviesa cada etapa de un proyecto de datos. Desde la recolección hasta la implementación, la ética define si un producto genera confianza o termina protagonizando un escándalo. A continuación se exploran los principios fundamentales que toda organización debe integrar cuando trabaja con información sensible.
¿Cuáles son los principios éticos en la recolección de datos?
El punto de partida es la privacidad [0:16]. Esto implica que los datos recolectados se almacenen de forma segura y confidencial, reduciendo al mínimo el riesgo de ataques informáticos. En un caso como Sanamente —una plataforma que monitorea salud mental a partir de audio, redes sociales, patrones de sueño, conversaciones e ingesta de alimentos— la profundidad de la información exige medidas robustas.
Directamente ligado a la privacidad está el consentimiento [0:36]. Cuando se captura información tan íntima, el usuario debe ser plenamente consciente de qué datos se recopilan y autorizar su almacenamiento y análisis de manera explícita.
La transparencia [1:07] complementa este proceso: comunicar con claridad qué tecnología se utiliza (cámara, micrófono, sensores del celular), cómo se almacenan y procesan los datos, cómo funcionan los algoritmos y de qué forma se comparten los resultados. Todo el ciclo debe ser visible para el usuario.
¿Por qué importa el propósito y la justicia en un producto de datos?
Cada análisis necesita un propósito claro y un principio de no maleficencia [1:47]: garantizar que no exista una intención dañina detrás del uso de la información. En Sanamente el propósito es positivo —ayudar al usuario final—, pero eso no exime de verificarlo en cada iteración.
La justicia [2:06] obliga a evaluar si el modelo reproduce sesgos o genera discriminación. Si un algoritmo favorece ciertos perfiles y perjudica otros, la equidad se rompe, y con ella la confianza del usuario.
¿Cuándo minimizar datos y cuándo profundizar?
El principio de minimización de datos [2:16] aconseja recolectar únicamente la información necesaria. Si un dato como el género no aporta valor al análisis ni tiene un propósito legítimo, es mejor no recopilarlo. Sin embargo, existen excepciones: Sanamente necesita información profunda —conversaciones, patrones de llamadas, preferencias en redes— para ofrecer recomendaciones realmente personalizadas.
Cuando los datos se comparten con terceros, entra en juego la anonimización [3:07]. Esto significa que ningún registro individual pueda vincularse con una persona concreta. Se puede reportar, por ejemplo, que el promedio de edad de los usuarios es de veintiocho años, sin revelar cuántos son ni sus identidades.
¿Cómo resolver dilemas éticos en el intercambio de datos?
Un escenario real ilustra la tensión entre innovación y ética [3:50]. Sanamente posee información valiosa sobre cómo distintos perfiles de usuarios reaccionan a ciertos medicamentos. Compartir esos datos con hospitales y farmacias —lo que se conoce como data sharing— permitiría desarrollar medicamentos más personalizados y reducir efectos secundarios que hoy afectan a grupos poco representados en las muestras tradicionales.
- Las farmacias son expertas en desarrollo de producto, pero trabajan con muestras poco diversas.
- Sanamente conoce comportamientos y reacciones en segmentos específicos.
- La colaboración entre sectores elimina sesgos que una sola organización no puede detectar.
Desde un punto de vista ético, la respuesta apunta a compartir la información, siempre que se respeten los principios mencionados: anonimización, transparencia y consentimiento. El objetivo es que el producto complete un ciclo virtuoso donde los usuarios no solo sean monitoreados, sino que quienes presentan trastornos más agudos puedan acceder a tratamientos diseñados para sus necesidades reales.
¿Qué hacer cuando los datos revelan un riesgo de suicidio?
Este es quizá el dilema más delicado [5:31]. Si el análisis de datos identifica que un usuario presenta riesgo de suicidio, la organización enfrenta una decisión crítica:
- Enviar advertencias directas al usuario.
- Activar algún tipo de alerta a profesionales de salud.
- Implementar otro tipo de intervención inmediata.
No existe una respuesta única, pero sí un principio rector: pensar siempre en un propósito positivo que trascienda el negocio y contribuya al bienestar de la sociedad. ¿Qué harías tú en esa situación? Comparte tu perspectiva en los comentarios.