Sesgos en IA: casos reales de discriminación
Clase 20 de 36 • Platzi CONF 2021
Contenido del curso
Main Stage
- 2

Freddy Vega: cómo desaprender el ego
31:58 min - 3

Cómo crear un plan de desarrollo profesional
05:10 min - 4

Por qué decidí invertir en Latinoamérica - Carolina Huaranca
15:38 min - 5

El cerebro de programadores: ¿genética o entrenamiento?
04:14 min - 6

Entrevista: Estrategias de persuasión en un mundo digital - Jonah Berger
07:40 min - 7

Web 3.0 - Christian Van Der Henst
24:54 min - 8
![Be[in]Crypto - Ana Ojeda Caracas](https://thumbs.cdn.mdstrm.com/thumbs/512e13acaca1ebcd2f000279/thumb_614bee4e66a7b2397b06cf40_614bee4e66a7b2397b06cf4c_26s.jpg)
Be[in]Crypto - Ana Ojeda Caracas
04:18 min - 9

Cómo encontrar tu tribu en redes sociales
12:48 min - 10

Cuentos para soñar con los ojos abiertos - Hernán Casciari
38:48 min - 11

El secreto para avanzar al ritmo de la tecnología - Javier Matuk
02:13 min - 12

Creando puentes - Shel Valdés
04:58 min - 13

El método de enseñanza de Julio Profe
16:40 min
Code Stage
- 14

PHP para crear tu primer producto viable
04:41 min - 15

El estado del desarrollo web según Platzi - Estefany Aguilar, Estefany Salas, Nicolas Molina
31:14 min - 16

Ya soy desarrolladora Senior ¿Ahora qué? - Juan Pablo Buriticá
16:32 min - 17

La empatía corre por las venas de tu producto - Priyanka Shetty
13:57 min - 18

Divergente: ¿tu don o tu maldición? - Romina Huamán
04:34 min - 19

Automatización de enemigos con redes neuronales
04:25 min - 20

Sesgos en IA: casos reales de discriminación
Viendo ahora - 21

Cómo crear IA para obreros invisibles
12:36 min - 22

No eres malo en Matemáticas, solo te enseñaron mal - Enrique Devars
04:51 min - 23

¿Por qué necesitamos más ingenieras? - Irma Meza
04:21 min - 24

Por qué Bitcoin es diferente del dinero tradicional
04:54 min
Creative Stage
- 25

Aprender no tiene edad - Jaime Durán
12:23 min - 26

De la pasión por las canchas a la industria creativa - Diego Pinzón
13:42 min - 27

El proceso invisible detrás de las ideas - Carolina Laverde
05:12 min - 28

Porqué el periodismo importa en un mundo de FakeNews - Ingrid Zuñiga
04:50 min - 29

La confianza, base de la economía Cripto - Andrés Londoño
05:10 min - 30

Despierta tu mente innovadora - Daphne S. Leger
14:22 min - 31

La voz como herramienta de creatividad
16:02 min - 32

La importancia de no tomarte tu contenido tan en serio - Joaquín Loyo
04:50 min - 33

El diseño de producto en tu día a día - Daniel Torres Burriel
14:28 min - 34

Industria de Videojuegos en Latam - Diana Rodríguez
04:23 min - 35

Algoritmos vs usuarios: el dilema del marketing
57:07 min - 36
¡Anuncio Importante!
00:20 min
La inteligencia artificial está en finanzas, salud, movilidad, redes sociales y hasta en el deporte. Por eso, hablar de ética en inteligencia artificial no es opcional: es urgente. Humanizar la IA no significa darle rostro o autonomía, sino enfocarla en lo que está bien y lo que no en sus decisiones.
¿Por qué humanizar la inteligencia artificial importa hoy?
La conversación ética nace de preguntas reales: ¿la IA desplazará empleos?, ¿podemos culpar a una máquina?, ¿debemos confiar en cajas negras?, ¿qué pasa con la singularidad o el uso de armamento?, ¿y la privacidad? Estas dudas exigen criterio y responsabilidad.
Aquí la clave es recordar dos principios: somos responsables de lo que la IA aprende y la ley de GIGO (Garbage in, garbage out): si entrenas con basura, obtienes basura. Además, cuando no podemos explicar una decisión, su implementación debe cuestionarse.
¿Qué principios éticos marcan la diferencia?
- Responsabilidad sobre los datos: qué enseñamos y hasta dónde entrenamos.
- GIGO como regla práctica: datos de mala calidad generan daños.
- Criterio frente a cajas negras: si no se explica, se evalúa su riesgo.
¿Qué casos reales evidencian sesgos en algoritmos?
Los sesgos ya afectan empleo, salud, justicia y acceso a oportunidades. Hay patrones que se repiten: datos desbalanceados, variables demográficas innecesarias y equipos poco diversos.
¿Qué pasó en redes, salud y empleo?
- Microsoft Tay: un bot de 2016 que aprendía de tweets. En 16 horas se volvió racista y xenófobo al aprender de usuarios trolls. Datos tóxicos, resultados tóxicos.
- IBM Watson en oncología: recomendó tratamientos peligrosos por usar datos hipotéticos para subir su accuracy. Vidas en riesgo por priorizar métrica sobre seguridad.
- Amazon reclutamiento: el sistema penalizaba hojas de vida de mujeres. Aprendió del histórico de una industria dominada por hombres. Cambiar el nombre a femenino bajaba el score para “ingeniero” y subía para “diseñadora”.
- Facebook empleos: anuncios dirigidos a hombres estadounidenses, excluyendo mujeres y otras etnias. La IA reforzó discriminación en oportunidades.
- Asistentes virtuales: voces “amables” de mujer en tareas serviciales. Refuerzan estereotipos de género desde el diseño.
¿Cómo afecta el reconocimiento facial y la justicia?
- Reconocimiento facial: “Joe Bulawini” evidenció que sistemas de Amazon, Kairos, Microsoft y Face++ convergen mejor con hombres blancos. Personas afro no eran detectadas con precisión por falta de entrenamiento con rostros de color.
- Justicia penal: un algoritmo de riesgo de reincidencia castigaba a personas afro. Ejemplos: mismo delito, riesgos 3 vs 10 sin otra diferencia que el color de piel. Datos del desempeño: alto riesgo que no reincidieron, blancos 23% vs afros 44%; bajo riesgo que sí reincidieron, blancos 47% vs afros 28%.
- Detección de objetos de Google: una mano oscura con “arma” pasa a “monóculo” al aclarar el color. El color de piel altera la clasificación.
¿Cómo mitigar sesgos y construir IA responsable?
Sí hay avances: iniciativas como Algorithm Justice League de “Joe Bulawini” impulsan auditorías de sesgos y data sets balanceados. Pero el cambio inicia en cada proyecto y equipo.
¿Qué prácticas aplicar desde hoy?
- Verificar que los datos de entrenamiento representen el problema real.
- Preguntarse si variables demográficas son necesarias: sexo, edad, etnia.
- Definir qué datos excluir: evitar que el modelo “aprenda” patrones tóxicos.
- Probar con amplias muestras poblacionales y ajustar por subgrupos.
- Priorizar seguridad y equidad sobre una métrica como accuracy.
¿Por qué la diversidad del equipo es clave?
- Las minorías detectan sesgos que la mayoría no ve.
- La IA refleja a quien diseña y a su contexto.
- Equipos diversos reducen puntos ciegos y evitan atropellos sistemáticos.
Quien hace el código importa y cómo se hace importa. La IA sin ética no es inteligencia. ¿Qué sesgos has visto en productos reales y cómo los abordarías? Comparte tus ideas y experiencias en los comentarios.