C贸mo utilizar TensorFlow 2.0 con Python

1

Redes neuronales con TensorFlow

2

Introducci贸n a TensorFlow 2.0

Manejo y preprocesamiento de datos para redes neuronales

3

Uso de data pipelines

4

C贸mo cargar bases de datos JSON

5

Cargar bases de datos CSV y BASE 64

6

Preprocesamiento y limpieza de datos

7

Keras datasets

8

Datasets generators

9

Aprende a buscar bases de datos para deep learning

10

C贸mo distribuir los datos

11

Crear la red neural, definir capas, compilar, entrenar, evaluar y predicciones

Optimizaci贸n de precisi贸n de modelos

12

M茅todos de regularizaci贸n: overfitting y underfitting

13

Recomendaciones pr谩cticas para ajustar un modelo

14

M茅tricas para medir la eficiencia de un modelo: callback

15

Monitoreo del entrenamiento en tiempo real: early stopping y patience

16

KerasTuner: construyendo el modelo

17

KerasTuner: buscando la mejor configuraci贸n para tu modelo

Almacenamiento y carga de modelos

18

Almacenamiento y carga de modelos: pesos y arquitectura

19

Criterios para almacenar los modelos

Fundamentos de aprendizaje por transferencia

20

Introducci贸n al aprendizaje por transferencia

21

Cu谩ndo utilizar aprendizaje por transferencia

22

Carga de sistemas pre-entrenados en Keras

23

API funcional de Keras

24

Uso sistemas pre-entrenados de TensorFlow Hub

Resultados de entrenamiento

25

Introducci贸n a variables relevantes del TensorBoard

26

An谩lisis y publicaci贸n de resultados del entrenamiento

27

Introducci贸n al despliegue de modelos en producci贸n

28

Siguientes pasos con deep learning

Uso de data pipelines

3/28
Recursos

Aportes 3

Preguntas 1

Ordenar por:

驴Quieres ver m谩s aportes, preguntas y respuestas de la comunidad? Crea una cuenta o inicia sesi贸n.

RESUMEN DE LA CLASE

驴Qu茅 es un Pipeline?

Un pipeline es un c贸digo escrito en Python que generar谩 un grafo (modelo) para resolver problemas de clasificaci贸n, de predicciones, para entrenar y probar datos, entre otros鈥

Los pasos previos a seguir para crear un pipeline son:

  1. Cagar bases de datos
  2. Preprocesar datos (limpieza, an谩lisis)
  3. Cargar dataset (base de datos) desde Keras
  4. Dataset generators (cargar base de datos no en memory)
  5. Cargar tus propios dataset
  6. Distribuir los datos
# ES IMPORTANTE CREAR BUENAS BASES DE DATOS
# PARA QUE LOS DATOS DE SALIDA SEAN BUENOS
# Por eso se debe preprocesar bien para crear un buen grafo (modelo).

驴C贸mo se componen las base de datos de los proyectos a desarrollar?

  1. Im谩genes
  2. Labels

Profe felicidades por tan buen curso, tomar茅 los cursos que recomand谩s para poder desarrollar este curso.

Un poco impreciso la 煤ltima parte sobre los componentes de dataset, pues resolver problemas que tengan que ver con im谩genes es solo una aplicaci贸n de las redes neuronales, no siempre tendremos im谩genes 驴o s铆?