Justificación y contexto de tu proyecto

1

Proyectos prácticos en ciencia de datos: del aprendizaje a la aplicación

2

Proyectos de Ciencia de Datos: Del Teórico al Práctico Realista

3

Cuándo iniciar un nuevo proyecto de ciencia de datos

4

Herramientas de Comunicación para Proyectos de Ciencia de Datos

5

Compartir Proyectos de Ciencia de Datos: Estrategias y Recursos

6

Comunicación Efectiva en Proyectos de Ciencia de Datos

Quiz: Justificación y contexto de tu proyecto

Ejecutando un proyecto de ciencia de datos

7

Construcción de Proyectos en Ciencia de Datos: Planteamiento de Preguntas

8

Búsqueda y Selección de Conjuntos de Datos Eficientes

9

Análisis de Datos Abiertos para Detectar Anomalías en Compras Públicas

10

Limpieza de Datos: Técnicas y Buenas Prácticas

11

Limpieza de Datos con Python y Pandas para Proyectos de Transparencia

12

Exploración de Datos: Análisis Unidimensional y Bidimensional

13

Análisis y Exploración de Datos con Pandas y Matplotlib

14

Análisis Multidimensional y Visualización de Datos en Python

15

Enriquecimiento de Datos en Ciencia de Datos

16

Enriquecimiento de Datos para Modelos de Machine Learning

17

Modelos de Machine Learning: Supervisado y No Supervisado

18

Modelación de Datos con Aprendizaje Supervisado y No Supervisado

19

Clustering y Detección de Anomalías en Datos de Negocios

20

Detección de Anomalías en Datos Financieros con Modelos Gaussianos

21

Organización y Versionado de Proyectos con Git y Github

22

Publicación de Proyectos en GitHub: Limpieza y Conclusiones

Quiz: Ejecutando un proyecto de ciencia de datos

Comunicando los resultados

23

Cómo Compartir Proyectos de Ciencia de Datos Efectivamente

24

Cómo Escribir un Block Post Técnico Efectivo

25

Presentaciones Efectivas en Comunidades Tecnológicas

26

Optimización de Repositorios en GitHub para Impacto Profesional

27

APIs Restful: Construcción y Despliegue Eficiente

28

Creación de Productos de Datos con Python y Herramientas Visuales

Quiz: Comunicando los resultados

Últimos pasos

29

Cómo y Cuándo Dar Cierre a Proyectos de Ciencia de Datos

30

Recomendaciones para Compartir Proyectos de Datos

31

Presentación y Compartición de Proyectos de Ciencia de Datos

No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

Modelos de Machine Learning: Supervisado y No Supervisado

17/31
Recursos

¿Cómo construir un modelo de machine learning?

El machine learning es la columna vertebral de la ciencia de datos moderna, permitiendo a las organizaciones derivar valor impresionante de los datos. Una vez que un conjunto de datos ha sido enriquecido y explorado, encontrar patrones mediante modelos de machine learning es el siguiente paso lógico. Estos patrones pueden enriquecer nuestras conclusiones y aportar un enfoque estructurado a las predicciones de datos. Vamos a desvelar cómo podemos llevar a cabo este proceso de manera efectiva.

¿Qué es el aprendizaje supervisado?

El aprendizaje supervisado se trata de usar la experiencia y los datos para descubrir cómo influyen las variables en resultados específicos.

  • Regresión: Cuando el objetivo es predecir un valor numérico, empleamos técnicas como la regresión.
  • Categorización: Cuando el objetivo es predecir una categoría, usamos técnicas de clasificación.

Algunos modelos comunes incluyen el random forest y la regresión logística, que ayudan a conectar las variables de entrada con las de salida a través de relaciones de causa y efecto identificadas.

¿Qué es el análisis no supervisado?

En contraste con el aprendizaje supervisado, el análisis no supervisado se enfoca en describir similitudes y se utiliza para agrupar y reducir dimensiones de datos.

  • Clustering: Herramientas como el K-means nos ayudan a encontrar patrones y agrupar datos similares.
  • Reducción de dimensiones: Técnicas como PCA (Análisis de Componentes Principales) reducen la complejidad bajando el número de dimensiones sin perder la variabilidad de los datos.

¿Qué aspectos considerar al modelar?

La construcción efectiva de un modelo es una combinación de ciencia y arte. Aquí hay algunos aspectos claves a tener en cuenta:

  • No hay almuerzo gratis: Necesitas datos suficientes para que un modelo sea efectivo.
  • Underfitting: Ocurre cuando un modelo no captura lo suficiente la relación en los datos. Monitorea el error en la etapa de entrenamiento para asegurarte de que el modelo esté aprendiendo de manera adecuada.
  • Overfitting: Ocurre cuando el modelo captura tantos detalles que no puede generalizar con datos nuevos. Más variables ayudan a contextualizar y mejorar la generalización.
  • Objetividad y métricas: La precisión no lo es todo. En la regresión, considera otras métricas como el recall y la cobertura para una descripción más completa del problema.
  • Optimización: Usa técnicas de optimización de parámetros como la búsqueda por gradiente para encontrar los parámetros óptimos.

¿Por qué no basta con las redes neuronales?

Las redes neuronales poseen capacidades impresionantes, pero son solo una herramienta en la caja, con limitaciones. Asegúrate de:

  • Tener datos suficientes y variables de respuesta adecuadas.
  • Configurar la complejidad adecuada de la red para soportar los procesos internos.

¿Cuáles son las mejores prácticas para modelar en machine learning?

Al modelar, las mejores prácticas incluyen:

  1. Entender tus datos: Conoce las características de tu conjunto de datos para seleccionar modelos y técnicas de preprocesamiento adecuadas.
  2. Dividir los datos: Usa la técnica train-test para separar juegos de datos de entrenamiento y prueba.
  3. Elegir tu modelo sabiamente: No todos los problemas necesitan soluciones complejas como redes neuronales. A veces, un modelo más simple es lo mejor.
  4. Hacer uso de la validación cruzada: Para asegurarte de que tu modelo es robusto.
  5. Iterar y ajustar: Ajusta tu modelo según el feedback y los resultados obtenidos.

Acceder a recursos adicionales y cursos de plataformas educativas como Platzi en áreas de machine learning y deep learning puede proporcionarte herramientas esenciales y profundizar en tu comprensión de la inteligencia artificial y machine learning. ¡Sigue adelante en tu apasionante viaje de aprendizaje!

Aportes 3

Preguntas 1

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

Concuerdo con el profesor Ricardo - Todos los modelos en ciencia de datos no funcionan para todos los datos, es decir que cada modelo debe ir acorde a la necesidad, ya sea explicando algún fenómeno o algún comportamiento en los mismos, una característica que se desarrolla con la lógica matemática es saber que utilizar en cada escenario propuesto, por ejemplo he utilizado modelos con scikit-learn para caracterizar clientes por medio de k means, pero cuando hago una predicción o proyección de una métrica utilizo Keras con Ayuda de TensorFlow

Aplicando algunas regreciones a mi conjunto de datos de estudiantes

Error cuadrático medio: 0.7194700230669849
Error cuadrático medio: 0.8695117173653457
Error cuadrático medio para Lasso: 1.1491036876842666