Aprender los conceptos clave

1

Todo lo que aprenderás sobre MA con Scikit-Learn

2

¿Cómo aprenden las máquinas?

3

Problemas que podemos resolver con Scikit-learn

4

Las matemáticas que vamos a necesitar

Iniciar un proyecto con sklearn

5

Configuración de nuestro entorno Python

6

Instalación de librerías en Python

7

Datasets que usaremos en el curso

Optimización de features

8

¿Cómo afectan nuestros features a los modelos de Machine Learning?

9

Introducción al PCA

10

Preparación de datos para PCA e IPCA

11

Implementación del algoritmo PCA e IPCA

12

Kernels y KPCA

13

¿Qué es la regularización y cómo aplicarla?

14

Implementación de Lasso y Ridge

15

Explicación resultado de la implementación

16

ElasticNet: Una técnica intermedia

Regresiones robustas

17

El problema de los valores atípicos

18

Regresiones Robustas en Scikit-learn

19

Preparación de datos para la regresión robusta

20

Implementación regresión robusta

Métodos de ensamble aplicados a clasificación

21

¿Qué son los métodos de ensamble?

22

Preparación de datos para implementar métodos de ensamble

23

Implementación de Bagging

24

Implementación de Boosting

Clustering

25

Estrategias de Clustering

26

Implementación de Batch K-Means

27

Implementación de Mean-Shift

Optimización paramétrica

28

Validación de nuestro modelo usando Cross Validation

29

Implementación de K-Folds Cross Validation

30

Optimización paramétrica

31

Implementación de Randomized

32

Bonus: Auto Machine Learning

Salida a producción

33

Revisión de nuestra arquitectura de código

34

Importar y exportar modelos con Sklearn

35

Creación de una API con Flask para el modelo

36

Cierre del curso

37

Material adicional para consultar

Crea una cuenta o inicia sesión

¡Continúa aprendiendo sin ningún costo! Únete y comienza a potenciar tu carrera

Las matemáticas que vamos a necesitar

4/37
Recursos

¿Cuáles son las bases matemáticas detrás del Machine Learning?

El Machine Learning (o Aprendizaje Automático) es fascinante no solo por su capacidad para realizar tareas complejas, sino también por las matemáticas robustas y la estadística subyacente. Los algoritmos de Machine Learning se inspiran en fenómenos naturales y procesos biológicos, como el funcionamiento del cerebro, la psicología conductual y la evolución de las especies. Aunque estas herramientas simplifican realidades complejas, es gracias a su sólida base matemática que ofrecen resultados efectivos.

¿Por qué no necesitas ser un experto en matemáticas para empezar con Machine Learning?

Si bien es cierto que dominar las matemáticas es crucial para convertirse en un experto en Machine Learning, hoy existen herramientas avanzadas que hacen el trabajo matemático prácticamente invisible. Esto permite que, sin ser un experto, se puedan desarrollar proyectos de Machine Learning obteniendo resultados óptimos. Sin embargo, para quien aspira a ir más allá y dominar el campo, el estudio profundo de las matemáticas es imprescindible para entender y aplicar modelos en diversos contextos.

¿Cuáles son los temas matemáticos clave para profundizar en Machine Learning?

  1. Funciones y Trigonometría: Es vital reconocer y entender funciones como las polinomiales y exponenciales, ya sea por su gráfica o por muestras de datos. La capacidad de identificar y trabajar con distintos tipos de funciones es fundamental.

  2. Álgebra Lineal: Comprender vectores y matrices es crucial, ya que en Machine Learning los datos se representan y se transforman mediante estas estructuras. Saber operar con ellas de manera eficaz marca una diferencia significativa.

  3. Optimización de Funciones: Identificar valores extremos en funciones dentro de un rango es esencial para ajustar modelos y obtener mejores resultados.

  4. Cálculo Básico: Las derivadas son herramientas potentes para medir cómo cambia una función en un instante particular, un conocimiento clave para la optimización en Machine Learning.

¿Qué temas estadísticos son indispensables en Machine Learning?

  1. Probabilidad Básica: Fundamental para evaluar la ocurrencia de eventos e interpretar los resultados de modelos probabilísticos.

  2. Combinaciones y Permutaciones: Importantes para entender cómo las muestras influyen en la precisión de los modelos.

  3. Variables Aleatorias y sus Distribuciones: El comportamiento y la distribución de variables son centrales al comprender cómo los datos se comportan bajo diferentes condiciones.

  4. Teorema de Bayes: Este teorema es crucial para evaluar la probabilidad de sucesos dados otros eventos ya ocurridos, aplicable en algoritmos de inferencia en Machine Learning.

  5. Pruebas Estadísticas Básicas: Herramientas necesarias para validar hipótesis y verificar la calidad de los modelos desarrollados.

¿Qué enfoque se sigue en este curso de Machine Learning?

El curso adopta un enfoque centrado en el desarrollo de software y las ciencias de la computación. Se prioriza el uso de técnicas modernas y eficientes que permitan trabajar con modelos útiles en el mundo real. Aunque no se requiere un profundo conocimiento previo en matemáticas, se enfatiza en la importancia de estos conceptos para alcanzar un nivel avanzado en la disciplina. La meta es crear soluciones funcionales que proporcionen resultados deseados mediante herramientas de vanguardia y un respaldo teórico sólido.

Aportes 18

Preguntas 0

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

A Platzi le hace falta sacar un curso de Estadística mucho mejor, el que encontramos en la ruta de IA no se me hizo tan bueno

Importancia de las mates en el ML
La cortina de fondo: Varias técnicas que usamos para que los computadores aprendan están inspiradas en el mundo natural.

  • Redes neuronales artificiales: Están inspiradas en el cerebro humano.
  • Aprendizaje por refuerzo: Está inspirado en las teorías de la psicología conductual.
  • Algoritmos evolutivos: Los teorías de Charles Darwin.

Temas matemáticos generales a repasar:

  • Funciones y trigonométrica.
  • Algebra lineal.
  • Optimización de funciones.
  • Calculo diferencial.
    Temas de probabilidad a repasar
  • Probabilidad básica.
  • Combinaciones y permutaciones.
  • Variables aleatorias y distribuciones.
  • Teorema de Bayes.
  • Pruebas estadísticas.

Definitivamente la conclusión es que si no tienes buenas bases de matemáticas, es muy difícil tener un “entendimiento real” de machine learning e inteligencia artificial. Serán como “cajas negras”.

Para formar una buena base de estadística y probabilidad recomiendo el material de Khan Academy:

https://es.khanacademy.org/math/statistics-probability

seria excelente que nos dieran una lista de cursos de platzi para poder tomar y entender todo esos temas hasta el momento el instructor es muy claro y conciso me agrada mucho que nos den un ejemplo en la vida real apartir de la teoria buen curso hasta el momento

para entender muchos conceptos como

  • algebra lineal
  • redes neuronales
  • descenso del gradiente (otimizacion de funciones)
  • statistical
    les recomiendo estos dos canales

3Blue1Brown

statquest

“El Machine learning es matemática y estadística”…

imaginen solo por un momento hacer operaciones con matrices, vectores, hacer estadistica, graficar, y muchas cosas mas que vamos aprendiendo sin numpy, pandas o matplotlib.

Es importante tener un buen dominio de estos temas matemáticos, ya que son fundamentales para muchas áreas de la ciencia y la ingeniería, incluido el aprendizaje automático y la inteligencia artificial.


Tener una comprensión sólida de estos conceptos estadísticos es esencial para analizar datos de manera efectiva y tomar decisiones informadas en una variedad de campos, desde la investigación científica hasta la toma de decisiones empresariale

En otras palabras: * **Funciones y Trigonometría**: Comprender las funciones de activación y transformaciones importantes en ML. * **Álgebra Lineal**: Manejo eficiente de datos mediante matrices y operaciones vectoriales. * **Optimización de Funciones**: Ajuste de los modelos para reducir el error. * **Cálculo Básico**: Ajuste de parámetros de los modelos (descenso de gradiente, backpropagation).
Otro resumen: * **Probabilidad básica** te ayuda a manejar la incertidumbre y predicción. * **Combinaciones y Permutaciones** son útiles para evaluar y seleccionar características. * **Variables Aleatorias y Distribuciones** son claves para modelar y entender los datos. * **Teorema de Bayes** es la base de muchos algoritmos probabilísticos. * **Pruebas Estadísticas** permiten validar la significancia de tus resultados.

Donde puedo encontrar la presentacón que usa el profesor?

Me fascina qué todo el ML está inspirado en lo que sucede en la naturaleza.
Por favor mejoren el curso de estadística inferencial de la ruta!!!!!!!!....... ó que lo haga el profesor que realiza el curso de estadística descriptiva , falta meterle pizarra , hacer las demostraciones... entender el ¿por que? de las cosas , no es solamente mostrar formulitas y ya....
👻👻

Excelente curso

Muchas gracias. Me anima éste curso. Espero dar con el nivel de matemáticas requerido.

No soy matemático ni nada por el estilo pero me siento capaz de todo lo que dijo el profe