Justificación y contexto de tu proyecto

1

Cómo crear tu proyecto de ciencia de datos

2

Crea proyectos para afianzar tus conocimientos en ciencia de datos

3

Cada cuánto hacer un proyecto de datos

4

Dónde sacar ideas para proyectos de ciencia de datos

5

Generar y comunicar un proyecto de datos

6

Casos: personas que ya pasaron por este camino

Quiz: Justificación y contexto de tu proyecto

Ejecutando un proyecto de ciencia de datos

7

Plantea una pregunta interesante

8

Obteniendo los datos para tu proyecto

9

Ejecutando: obteniendo los datos

10

Limpieza de la información

11

Ejecutando: limpia tu conjunto de datos

12

Explora y encuentra patrones en la información

13

Ejecutando: exploración de la información

14

Ejecutando: completando la exploración de la información

15

Enriquecimiento de los datos para análisis profundo

16

Ejecutando: enriquecimiento de los datos

17

Aplicando un modelo de machine learning

18

Ejecutando: aplicando un modelo supervisado de machine learning

19

Ejecutando: aplicando un modelo no supervisado de machine learning

20

Ejecutando: aplicando un modelo no supervisado de anomalías

21

Prepara tu trabajo para comunicarlo con el mundo

22

Ejecutando: prepara tu trabajo para comunicarlo con el mundo

Quiz: Ejecutando un proyecto de ciencia de datos

Comunicando los resultados

23

Por qué es importante comunicar los resultados

24

Escribiendo tu primer blogpost técnico

25

Compartiendo en comunidad con tu primera presentación

26

Cómo mejorar tu repositorio en GitHub para ciencia de datos

27

Haciendo deploy de tus modelos

28

Construyendo una aplicación full stack que consuma tu proyecto

Quiz: Comunicando los resultados

Últimos pasos

29

Elige terminar: es mejor terminado que perfecto

30

Recuerda los objetivos del proyecto: practicar y carta de presentación

31

Comparte tu proyecto

No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

Aplicando un modelo de machine learning

17/31
Recursos

¿Cómo construir un modelo de machine learning?

El machine learning es la columna vertebral de la ciencia de datos moderna, permitiendo a las organizaciones derivar valor impresionante de los datos. Una vez que un conjunto de datos ha sido enriquecido y explorado, encontrar patrones mediante modelos de machine learning es el siguiente paso lógico. Estos patrones pueden enriquecer nuestras conclusiones y aportar un enfoque estructurado a las predicciones de datos. Vamos a desvelar cómo podemos llevar a cabo este proceso de manera efectiva.

¿Qué es el aprendizaje supervisado?

El aprendizaje supervisado se trata de usar la experiencia y los datos para descubrir cómo influyen las variables en resultados específicos.

  • Regresión: Cuando el objetivo es predecir un valor numérico, empleamos técnicas como la regresión.
  • Categorización: Cuando el objetivo es predecir una categoría, usamos técnicas de clasificación.

Algunos modelos comunes incluyen el random forest y la regresión logística, que ayudan a conectar las variables de entrada con las de salida a través de relaciones de causa y efecto identificadas.

¿Qué es el análisis no supervisado?

En contraste con el aprendizaje supervisado, el análisis no supervisado se enfoca en describir similitudes y se utiliza para agrupar y reducir dimensiones de datos.

  • Clustering: Herramientas como el K-means nos ayudan a encontrar patrones y agrupar datos similares.
  • Reducción de dimensiones: Técnicas como PCA (Análisis de Componentes Principales) reducen la complejidad bajando el número de dimensiones sin perder la variabilidad de los datos.

¿Qué aspectos considerar al modelar?

La construcción efectiva de un modelo es una combinación de ciencia y arte. Aquí hay algunos aspectos claves a tener en cuenta:

  • No hay almuerzo gratis: Necesitas datos suficientes para que un modelo sea efectivo.
  • Underfitting: Ocurre cuando un modelo no captura lo suficiente la relación en los datos. Monitorea el error en la etapa de entrenamiento para asegurarte de que el modelo esté aprendiendo de manera adecuada.
  • Overfitting: Ocurre cuando el modelo captura tantos detalles que no puede generalizar con datos nuevos. Más variables ayudan a contextualizar y mejorar la generalización.
  • Objetividad y métricas: La precisión no lo es todo. En la regresión, considera otras métricas como el recall y la cobertura para una descripción más completa del problema.
  • Optimización: Usa técnicas de optimización de parámetros como la búsqueda por gradiente para encontrar los parámetros óptimos.

¿Por qué no basta con las redes neuronales?

Las redes neuronales poseen capacidades impresionantes, pero son solo una herramienta en la caja, con limitaciones. Asegúrate de:

  • Tener datos suficientes y variables de respuesta adecuadas.
  • Configurar la complejidad adecuada de la red para soportar los procesos internos.

¿Cuáles son las mejores prácticas para modelar en machine learning?

Al modelar, las mejores prácticas incluyen:

  1. Entender tus datos: Conoce las características de tu conjunto de datos para seleccionar modelos y técnicas de preprocesamiento adecuadas.
  2. Dividir los datos: Usa la técnica train-test para separar juegos de datos de entrenamiento y prueba.
  3. Elegir tu modelo sabiamente: No todos los problemas necesitan soluciones complejas como redes neuronales. A veces, un modelo más simple es lo mejor.
  4. Hacer uso de la validación cruzada: Para asegurarte de que tu modelo es robusto.
  5. Iterar y ajustar: Ajusta tu modelo según el feedback y los resultados obtenidos.

Acceder a recursos adicionales y cursos de plataformas educativas como Platzi en áreas de machine learning y deep learning puede proporcionarte herramientas esenciales y profundizar en tu comprensión de la inteligencia artificial y machine learning. ¡Sigue adelante en tu apasionante viaje de aprendizaje!

Aportes 3

Preguntas 1

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

Concuerdo con el profesor Ricardo - Todos los modelos en ciencia de datos no funcionan para todos los datos, es decir que cada modelo debe ir acorde a la necesidad, ya sea explicando algún fenómeno o algún comportamiento en los mismos, una característica que se desarrolla con la lógica matemática es saber que utilizar en cada escenario propuesto, por ejemplo he utilizado modelos con scikit-learn para caracterizar clientes por medio de k means, pero cuando hago una predicción o proyección de una métrica utilizo Keras con Ayuda de TensorFlow

Aplicando algunas regreciones a mi conjunto de datos de estudiantes

Error cuadrático medio: 0.7194700230669849
Error cuadrático medio: 0.8695117173653457
Error cuadrático medio para Lasso: 1.1491036876842666