Cómo utilizar TensorFlow 2.0 con Python

1

Redes neuronales con TensorFlow

2

Introducción a TensorFlow 2.0

Manejo y preprocesamiento de datos para redes neuronales

3

Uso de data pipelines

4

Cómo cargar bases de datos JSON

5

Cargar bases de datos CSV y BASE 64

6

Preprocesamiento y limpieza de datos

7

Keras datasets

8

Datasets generators

9

Aprende a buscar bases de datos para deep learning

10

Cómo distribuir los datos

11

Crear la red neural, definir capas, compilar, entrenar, evaluar y predicciones

Optimización de precisión de modelos

12

Métodos de regularización: overfitting y underfitting

13

Recomendaciones prácticas para ajustar un modelo

14

Métricas para medir la eficiencia de un modelo: callback

15

Monitoreo del entrenamiento en tiempo real: early stopping y patience

16

KerasTuner: construyendo el modelo

17

KerasTuner: buscando la mejor configuración para tu modelo

Almacenamiento y carga de modelos

18

Almacenamiento y carga de modelos: pesos y arquitectura

19

Criterios para almacenar los modelos

Fundamentos de aprendizaje por transferencia

20

Introducción al aprendizaje por transferencia

21

Cuándo utilizar aprendizaje por transferencia

22

Carga de sistemas pre-entrenados en Keras

23

API funcional de Keras

24

Uso sistemas pre-entrenados de TensorFlow Hub

Resultados de entrenamiento

25

Introducción a variables relevantes del TensorBoard

26

Análisis y publicación de resultados del entrenamiento

27

Introducción al despliegue de modelos en producción

28

Siguientes pasos con deep learning

Uso de data pipelines

3/28
Recursos

Aportes 3

Preguntas 1

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad? Crea una cuenta o inicia sesión.

RESUMEN DE LA CLASE

¿Qué es un Pipeline?

Un pipeline es un código escrito en Python que generará un grafo (modelo) para resolver problemas de clasificación, de predicciones, para entrenar y probar datos, entre otros…

Los pasos previos a seguir para crear un pipeline son:

  1. Cagar bases de datos
  2. Preprocesar datos (limpieza, análisis)
  3. Cargar dataset (base de datos) desde Keras
  4. Dataset generators (cargar base de datos no en memory)
  5. Cargar tus propios dataset
  6. Distribuir los datos
# ES IMPORTANTE CREAR BUENAS BASES DE DATOS
# PARA QUE LOS DATOS DE SALIDA SEAN BUENOS
# Por eso se debe preprocesar bien para crear un buen grafo (modelo).

¿Cómo se componen las base de datos de los proyectos a desarrollar?

  1. Imágenes
  2. Labels

Profe felicidades por tan buen curso, tomaré los cursos que recomandás para poder desarrollar este curso.

Un poco impreciso la última parte sobre los componentes de dataset, pues resolver problemas que tengan que ver con imágenes es solo una aplicación de las redes neuronales, no siempre tendremos imágenes ¿o sí?