Sesgos invisibles en datos y sistemas de inteligencia artificial

Clase 10 de 21Curso de Ciencia de Datos para Análisis de Negocio

Resumen

Comprende cómo los sesgos invisibles distorsionan datos, modelos y decisiones, incluso cuando las métricas lucen bien. Aquí verás por qué un sistema puede ser preciso y a la vez injusto, dónde se esconden los sesgos en datos, diseño y uso, y cómo el Data Ethics Canvas ayuda a tomar decisiones más humanas y relevantes.

¿Por qué un modelo preciso puede ser injusto en datos?

Un modelo puede ofrecer resultados espectaculares en promedio y, sin embargo, excluir a ciertos grupos o reforzar desigualdades. Estos sesgos no son el clásico “yo creo que así funciona”, sino patrones invisibles que se cuelan en el muestreo, la etiquetación, la medición, la automatización y, sobre todo, en el propio diseño del sistema.

La pregunta clave es ética y práctica: si un sistema funciona “bien” en conjunto, ¿a quién está dejando fuera sin que nos demos cuenta? Ese es el momento de levantar la mano y revisar supuestos.

¿Cuáles son los sesgos más comunes en datos?

  • Sesgo de muestreo: los datos no representan a toda la población. Ejemplo: encuestas solo a quienes ya compraron.
  • Sesgo de etiquetado: quienes etiquetan proyectan prejuicios o carecen de contexto.
  • Sesgo de medición: el instrumento recolecta mal. Ejemplo: formularios que empujan a ciertas respuestas.
  • Sesgo de automatización: confianza ciega en lo que “dice el sistema”, aunque esté mal.

¿Dónde se esconden los sesgos en lenguaje, cobertura y acceso?

  • Lenguaje excluyente: palabras poco inclusivas o demasiado regionales en los datos.
  • Cobertura urbana: solo hay datos de ciudades grandes; se ignoran contextos rurales e industrias primarias como agricultura y pesca.
  • Diseño de interfaces: se asume internet rápido o smartphone actualizado para todas las personas.
  • Supuestos bancarios: se da por hecho el contrato laboral formal, algo que no refleja a millones en Latinoamérica.
  • Casos de uso importados: se diseñan para el norte global; por ejemplo, reconocimiento facial en comunidades con discriminación, o soluciones que ignoran realidades locales.

¿Cómo ampliar la mirada más allá del algoritmo con ética?

No basta con ajustar el modelo: los sesgos también nacen antes de que existan los datos. Una herramienta útil es el Data Ethics Canvas: una plantilla de preguntas que obliga a pensar consecuencias, supuestos y brechas antes de lanzar un proyecto. No dicta qué hacer, pero activa la reflexión y alinea al equipo más allá de lo “funcional”.

¿Qué preguntas activar con Data Ethics Canvas?

  • ¿quién podría salir perjudicado con esta herramienta o solución.
  • ¿a quién estamos dejando fuera y por qué.
  • ¿qué dato necesitamos recolectar mejor y cómo.
  • ¿cómo sabremos si el sistema se comporta de manera justa.

¿Qué conversación práctica proponer al equipo hoy?

Abrir la conversación es el primer paso para construir sistemas más justos y relevantes para el mundo real. No hace falta un rol “oficial” de ética: se necesitan curiosidad y ganas de hacerlo mejor.

  • Muestra la imagen de recursos con sesgos de datos, diseño y uso.
  • Pide que cada persona elija un ejemplo y lo relacione con algo que haya hecho o visto en su trabajo.
  • Pongan sobre la mesa la pregunta clave: “¿qué estamos asumiendo que podría estar excluyendo a alguien sin quererlo?”.
  • No busquen resolver todo en una sesión: mantener viva la conversación crea cultura y gobernanza.

Cerrando este módulo de Cultura y Gobernanza, vienen roles, responsabilidades y cómo armar un equipo que funcione. ¿Qué supuesto te sorprendió encontrar en tu propio contexto? Comparte tu experiencia y dudas.