Sesgos en IA: casos reales de discriminación

Clase 20 de 36Platzi CONF 2021

Resumen

La inteligencia artificial está en finanzas, salud, movilidad, redes sociales y hasta en el deporte. Por eso, hablar de ética en inteligencia artificial no es opcional: es urgente. Humanizar la IA no significa darle rostro o autonomía, sino enfocarla en lo que está bien y lo que no en sus decisiones.

¿Por qué humanizar la inteligencia artificial importa hoy?

La conversación ética nace de preguntas reales: ¿la IA desplazará empleos?, ¿podemos culpar a una máquina?, ¿debemos confiar en cajas negras?, ¿qué pasa con la singularidad o el uso de armamento?, ¿y la privacidad? Estas dudas exigen criterio y responsabilidad.

Aquí la clave es recordar dos principios: somos responsables de lo que la IA aprende y la ley de GIGO (Garbage in, garbage out): si entrenas con basura, obtienes basura. Además, cuando no podemos explicar una decisión, su implementación debe cuestionarse.

¿Qué principios éticos marcan la diferencia?

  • Responsabilidad sobre los datos: qué enseñamos y hasta dónde entrenamos.
  • GIGO como regla práctica: datos de mala calidad generan daños.
  • Criterio frente a cajas negras: si no se explica, se evalúa su riesgo.

¿Qué casos reales evidencian sesgos en algoritmos?

Los sesgos ya afectan empleo, salud, justicia y acceso a oportunidades. Hay patrones que se repiten: datos desbalanceados, variables demográficas innecesarias y equipos poco diversos.

¿Qué pasó en redes, salud y empleo?

  • Microsoft Tay: un bot de 2016 que aprendía de tweets. En 16 horas se volvió racista y xenófobo al aprender de usuarios trolls. Datos tóxicos, resultados tóxicos.
  • IBM Watson en oncología: recomendó tratamientos peligrosos por usar datos hipotéticos para subir su accuracy. Vidas en riesgo por priorizar métrica sobre seguridad.
  • Amazon reclutamiento: el sistema penalizaba hojas de vida de mujeres. Aprendió del histórico de una industria dominada por hombres. Cambiar el nombre a femenino bajaba el score para “ingeniero” y subía para “diseñadora”.
  • Facebook empleos: anuncios dirigidos a hombres estadounidenses, excluyendo mujeres y otras etnias. La IA reforzó discriminación en oportunidades.
  • Asistentes virtuales: voces “amables” de mujer en tareas serviciales. Refuerzan estereotipos de género desde el diseño.

¿Cómo afecta el reconocimiento facial y la justicia?

  • Reconocimiento facial: “Joe Bulawini” evidenció que sistemas de Amazon, Kairos, Microsoft y Face++ convergen mejor con hombres blancos. Personas afro no eran detectadas con precisión por falta de entrenamiento con rostros de color.
  • Justicia penal: un algoritmo de riesgo de reincidencia castigaba a personas afro. Ejemplos: mismo delito, riesgos 3 vs 10 sin otra diferencia que el color de piel. Datos del desempeño: alto riesgo que no reincidieron, blancos 23% vs afros 44%; bajo riesgo que sí reincidieron, blancos 47% vs afros 28%.
  • Detección de objetos de Google: una mano oscura con “arma” pasa a “monóculo” al aclarar el color. El color de piel altera la clasificación.

¿Cómo mitigar sesgos y construir IA responsable?

Sí hay avances: iniciativas como Algorithm Justice League de “Joe Bulawini” impulsan auditorías de sesgos y data sets balanceados. Pero el cambio inicia en cada proyecto y equipo.

¿Qué prácticas aplicar desde hoy?

  • Verificar que los datos de entrenamiento representen el problema real.
  • Preguntarse si variables demográficas son necesarias: sexo, edad, etnia.
  • Definir qué datos excluir: evitar que el modelo “aprenda” patrones tóxicos.
  • Probar con amplias muestras poblacionales y ajustar por subgrupos.
  • Priorizar seguridad y equidad sobre una métrica como accuracy.

¿Por qué la diversidad del equipo es clave?

  • Las minorías detectan sesgos que la mayoría no ve.
  • La IA refleja a quien diseña y a su contexto.
  • Equipos diversos reducen puntos ciegos y evitan atropellos sistemáticos.

Quien hace el código importa y cómo se hace importa. La IA sin ética no es inteligencia. ¿Qué sesgos has visto en productos reales y cómo los abordarías? Comparte tus ideas y experiencias en los comentarios.

      Sesgos en IA: casos reales de discriminación