Estadística y Probabilidad en Algoritmos de Machine Learning

Clase 18 de 23Curso de Fundamentos de AI para Data y Machine Learning

Contenido del curso

Resumen

Cada vez que un algoritmo de inteligencia artificial clasifica una imagen, detrás de esa predicción hay un número que expresa qué tan confiable es la respuesta. Ese número no surge por arte de magia: es el resultado directo de aplicar estadística y probabilidad sobre grandes volúmenes de datos. Comprender por qué estas dos ramas matemáticas son inseparables del machine learning es fundamental para cualquier persona que quiera trabajar en este campo.

¿Por qué la estadística y la probabilidad son esenciales en inteligencia artificial?

El proceso de inferencia que realiza un modelo de machine learning siempre trae consigo un grado de incertidumbre y opera sobre un conjunto de datos [0:35]. Esas dos palabras —incertidumbre y datos— conectan directamente con la estadística y la probabilidad.

La estadística es la rama de las matemáticas que permite organizar, recopilar y analizar información mediante métodos matemáticos [1:05]. Dentro de ella se distinguen dos grandes áreas:

  • Estadística descriptiva: se encarga de resumir y visualizar los datos antes de entrenar un modelo.
  • Estadística inferencial: permite sacar conclusiones y hacer predicciones a partir de una muestra de datos.

Por su parte, la probabilidad es la herramienta matemática que usamos para cuantificar la incertidumbre [1:42]. Cuando un algoritmo optimiza sus parámetros y entrega un resultado, ese resultado no es una certeza absoluta, sino un valor numérico que representa la confianza del modelo en su predicción.

¿Cómo funciona la probabilidad en un algoritmo de clasificación de imágenes?

Imagina un algoritmo que debe distinguir entre un avión y un auto [2:10]. El flujo es el siguiente:

  • La imagen se convierte en una matriz numérica (aquí entra el álgebra lineal).
  • Esa matriz se procesa dentro de una red neuronal, donde se estiman múltiples parámetros.
  • Esos parámetros se conocen como weights (pesos) y bias (sesgos) [3:00].
  • El modelo realiza un proceso de optimización con cálculo diferencial, calculando derivadas e igualando a cero para minimizar el error.

Al final de todo ese proceso, la red neuronal no dice "esto es un avión" con certeza absoluta. Lo que entrega son probabilidades [3:25]. Por ejemplo:

  • Imagen del avión: 90 % de probabilidad de ser avión, 10 % de ser auto.
  • Imagen del auto: 81 % de probabilidad de ser auto, 19 % de ser avión.

Esa capa final que transforma los resultados del algoritmo en una distribución de probabilidades se llama softmax [4:05]. Es una función que convierte las salidas brutas del modelo en valores entre 0 y 1 que suman 1, facilitando la interpretación como confianza en cada categoría.

¿Por qué las predicciones nunca son 100 % exactas?

Las predicciones de un algoritmo rara vez son perfectas [4:15]. Factores como la calidad del conjunto de entrenamiento influyen directamente. Si un modelo fue entrenado con imágenes donde algunos autos se parecen visualmente a aviones, esa ambigüedad se reflejará en probabilidades menos contundentes [5:05]. Lo importante es que el modelo siempre entrega un número que permite medir esa incertidumbre.

¿Dónde entra la estadística descriptiva en el entrenamiento?

Antes de que los datos lleguen al algoritmo, la persona que entrena el modelo debe procesarlos [5:30]. Esto incluye:

  • Normalización de las imágenes para que tengan el mismo tamaño.
  • Limpieza y filtrado de datos ruidosos o inconsistentes.
  • Análisis exploratorio para entender distribuciones y patrones.

Todas estas fases de preparación requieren un uso intensivo de estadística descriptiva, que resulta tan relevante como el propio algoritmo de aprendizaje.

¿Cómo se conectan álgebra, cálculo, estadística y probabilidad?

A lo largo de todo el proceso existe una cadena matemática clara [0:15]:

  • El álgebra lineal estructura los objetos de estudio de forma numérica.
  • El cálculo proporciona las herramientas para optimizar las predicciones.
  • La estadística permite organizar y analizar los datos con los que se entrena el modelo.
  • La probabilidad cuantifica la incertidumbre inherente a cada predicción.

Estas cuatro disciplinas no son opcionales: forman parte de la naturaleza misma de la inteligencia artificial. Absolutamente toda decisión que tome un algoritmo lleva implícito un grado de incertidumbre, y es responsabilidad de quien construye el modelo entender y comunicar ese margen.

Si llegaste hasta este punto, ya cuentas con una visión integral de por qué las matemáticas importan en inteligencia artificial. Comparte en los comentarios cuál de estas áreas matemáticas te genera más curiosidad y cómo planeas profundizar en ella.