No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

No se trata de lo que quieres comprar, sino de quién quieres ser. Aprovecha el precio especial.

Antes: $249

Currency
$209

Paga en 4 cuotas sin intereses

Paga en 4 cuotas sin intereses
Suscríbete

Termina en:

13 Días
20 Hrs
36 Min
54 Seg

La “receta” para aplicar algoritmos de machine learning

6/16
Recursos

Refuerza y practica tu inglés con los cursos de English Academy 🚀
Screenshot 2023-10-19 at 11.56.36 AM.png

Aportes 15

Preguntas 1

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

ME GUSTA EL INGLES QUE PRONUNCIA Y HE APRENDIDO MUCHO DEL RETO QUE SE HIZO !!!

Les comparto un aporte que hice, en el que uso un escalamiento no lineal de tanh(x/a) . Y la diferencia con otro tipo de escaladores.

why is important ?

  • normalizing data: ML has a better performance with normalized data for example in the range -1, 1. Models learn faster.
  • hold out (split your datset): it is one of the best practice if you want to avoid the overfitting in your model.

Creo que es la primera vez que me explican de forma tan sencilla la normalización de los datos. Símplemente restar la media y dividir por la desviación estándar para normalizarlos y así tener estabilidad en los datos.
Me encantó esta clase, me pareció muy útil

Si el curso es en ingles, esta bien, pero debería de poner las diapositivas en ingles también

📝 **Normalización de datos numéricos** Se utiliza para asegurar que los modelos no tienen problemas de estabilidad numérica (la facilidad con la que el modelo puede entender los datos). > 💡Estabilidad numérica = los datos numéricos se manejen en una misma escala/rangos similares, (Ejemplo \[-1, 1]). Existen varias técnicas de normalización, el que se muestra en la clase es el escalamiento *z-score;* consiste en transformar las variables numéricas del dataset de tal manera que tengan una media de 0 y una desviación estándar de 1, esto último se logra aplicando la formula ![](https://res.cloudinary.com/dmwsbri4c/image/upload/v1717438981/z-score_scaling_aplqji.png) **Para cada columna numérica del dataset:** 1. Calcular la media μ 2. Calcular la desviación estándar σ 3. Para cada data point, aplicar la formula de arriba. 📌 No se cambia la información dentro de la columna pero si el tamaño de los valores. Normalizar los datos permite que el modelo vea los valores en contextos similares. Acá les dejo otro recursos para aprender más sobre la normalización de valores numéricos: * <https://developers.google.com/machine-learning/data-prep/transform/normalization> * <https://machinelearningmastery.com/robust-scaler-transforms-for-machine-learning/> * <https://jorgeiblanco.medium.com/por-qu%C3%A9-la-normalizaci%C3%B3n-es-clave-e-importante-en-machine-learning-y-ciencia-de-datos-4595f15d5be0> (éste último esta en español). Espero que este aporte les sea de ayuda. # Made with 💜 by Paho! \#NuncaParenDeAprender 💚

Aplicar algoritmos de machine learning sigue una serie de pasos generales. Aquí tienes una “receta” básica que puedes seguir:

Recopilar y preparar los datos:

  • Comienza reuniendo los datos necesarios para tu problema de machine learning. Asegúrate de que los datos estén en un formato adecuado y que sean representativos de tu problema. Esto implica limpiar los datos, manejar los valores faltantes, realizar la codificación adecuada de variables categóricas, entre otros pasos de preprocesamiento.

Dividir los datos en conjuntos de entrenamiento y prueba:

  • Para evaluar la eficacia del modelo, separa los datos en conjuntos de entrenamiento y prueba. El conjunto de entrenamiento se utiliza para ajustar y aprender el modelo, mientras que el conjunto de prueba se utiliza para evaluar el rendimiento del modelo en datos no vistos anteriormente.

Seleccionar el algoritmo de machine learning apropiado:

  • Elige el algoritmo de machine learning adecuado según el tipo de problema que estés abordando (clasificación, regresión, clustering, etc.), la naturaleza de los datos y los requisitos específicos del proyecto. Algunos ejemplos de algoritmos comunes son regresión lineal, árboles de decisión, SVM, K-means, entre otros.

Entrenar el modelo:

  • Utiliza el conjunto de entrenamiento para entrenar el modelo con el algoritmo seleccionado. Durante el entrenamiento, el modelo ajusta sus parámetros para hacer predicciones más precisas en función de los datos de entrenamiento.

Evaluar el modelo:

  • Utiliza el conjunto de prueba para evaluar el rendimiento del modelo entrenado. Calcula métricas de evaluación adecuadas para tu problema, como precisión, exactitud, matriz de confusión, error cuadrático medio, etc. Esto te ayudará a comprender qué tan bien generaliza el modelo sobre datos no vistos.

Ajustar y optimizar el modelo:

  • Si el rendimiento del modelo no es satisfactorio, es posible que debas realizar ajustes y optimizaciones. Puedes probar diferentes hiperparámetros, técnicas de selección de características o incluso considerar utilizar un algoritmo diferente. Este proceso iterativo te permite mejorar gradualmente el rendimiento del modelo.

Realizar predicciones en datos nuevos:

  • Una vez que estés satisfecho con el rendimiento del modelo, puedes usarlo para hacer predicciones en nuevos datos sin etiquetar. Estos datos nuevos deben tener la misma estructura y características que los datos utilizados durante el entrenamiento.

I share my tutorial about Non-Linear Data Transformation in Deepnote

Acá dejo un pequeño spoiler del Aprendizaje Supervisado:
https://www.youtube.com/watch?v=ijJYeLFtiVM&ab_channel=AprendeInnovando

La calidad de esta educadora es indiscutible. Pero la estructura de Platzi con este tema deja mucho que desear. Hay al menos dos cursos mas donde ya vi el concepto de ML y el concepto de normalización. Tal vez deberían usar el “pensamiento programador” y abstraer esta información dejándolo solo en este curso o algo por el estilo.

Es la segunda vez que encuentro un curso de tan buen nivel después de haber probado más de 100 en Platzi. ¿Qué otros cursos similares me recomendarían? Me encantó la documentación de Google Colab y la utilidad de plataformas como Kaggle. Además, se nota la calidad de esta profesora, y no como otros tiktoks de la plataforma. ¡Hagamos una lista de estas joyas de cursos, por favor!

Es interesante la forma en que se usa la preparacion de modelos. Sabia lo de aplicar training y testing. Nunca pense que validation tambien debe ser incluido.

## Normalizacion de los Datos Aplica para cada columna del dataset con valores numericos. Durante el proceso de optimizacion se requiere de Estabilidad Numerica que trata sobre la facilidad de un modelo para utilizar las reglas de actualizacion. Es una practica comun bormalizar los datos para asegurar que los modelos no tengan problemas de estabilidad.
# Receta de algoritmos ML Los algoritmos ML deben cumplir con un proceso de tres pasos: * **Proceso de Decision**: Como los modelos hacen una prediccion, o retornan una respuesta, usando los parametros. Es el proceso real por el cual el modelo esta logrando hacer la prediccion. * **Funcion Error/Coste**: Trata de como evaluar si los parametros en el modelo generan buenas predicciones. Nos explica como el modelo tomas las decisiones y que tan lejos esta del objetivo que es lo que busca predecir. * **Regla de actualizacion:** Como mejorar los parametros para hacer mejores predicciones (usando optimizacion numerica). Esta regla indica los parametros que estas actualizando con el fin de obtener las mejores predicciones que en el primer modelo por lo general no encuentras.