C贸mo utilizar TensorFlow 2.0 con Python

1

Redes neuronales con TensorFlow

2

Introducci贸n a TensorFlow 2.0

Manejo y preprocesamiento de datos para redes neuronales

3

Uso de data pipelines

4

C贸mo cargar bases de datos JSON

5

Cargar bases de datos CSV y BASE 64

6

Preprocesamiento y limpieza de datos

7

Keras datasets

8

Datasets generators

9

Aprende a buscar bases de datos para deep learning

10

C贸mo distribuir los datos

11

Crear la red neural, definir capas, compilar, entrenar, evaluar y predicciones

Optimizaci贸n de precisi贸n de modelos

12

M茅todos de regularizaci贸n: overfitting y underfitting

13

Recomendaciones pr谩cticas para ajustar un modelo

14

M茅tricas para medir la eficiencia de un modelo: callback

15

Monitoreo del entrenamiento en tiempo real: early stopping y patience

16

KerasTuner: construyendo el modelo

17

KerasTuner: buscando la mejor configuraci贸n para tu modelo

Almacenamiento y carga de modelos

18

Almacenamiento y carga de modelos: pesos y arquitectura

19

Criterios para almacenar los modelos

Fundamentos de aprendizaje por transferencia

20

Introducci贸n al aprendizaje por transferencia

21

Cu谩ndo utilizar aprendizaje por transferencia

22

Carga de sistemas pre-entrenados en Keras

23

API funcional de Keras

24

Uso sistemas pre-entrenados de TensorFlow Hub

Resultados de entrenamiento

25

Introducci贸n a variables relevantes del TensorBoard

26

An谩lisis y publicaci贸n de resultados del entrenamiento

27

Introducci贸n al despliegue de modelos en producci贸n

28

Siguientes pasos con deep learning

29

Comparte tu proyecto de detecci贸n de se帽as y certif铆cate

No tienes acceso a esta clase

隆Contin煤a aprendiendo! 脷nete y comienza a potenciar tu carrera

M茅tricas para medir la eficiencia de un modelo: callback

14/29
Recursos

Aportes 3

Preguntas 1

Ordenar por:

驴Quieres ver m谩s aportes, preguntas y respuestas de la comunidad?

o inicia sesi贸n.

una lectura que complementa bien la clase, sobre todo para personalizar los callbacks

https://www.tensorflow.org/guide/keras/custom_callback?hl=es-419

Los Callbacks son 煤tiles para tener visibilidad de los estados internos y las estad铆sticas del modelo durante el entrenamiento.

La gran ventaja, es que se puede visualizar informaci贸n en puntos espec铆ficos indicados, y entender que est谩 pasando con el rendimiento del modelo.

from tensorflow.keras.callbacks import Callback

OPCION 1

Se va mejorando el accuracy, si despues de 1 epochs (patience=1) no mejora, se detiene
Es decir, cuando detecta deterioro se detiene

early = tf.keras.callbacks.EarlyStopping(monitor=鈥榓ccuracy鈥,patience=1)

model.fit(train_images,
train_labels,
batch_size=64,
callbacks=[early],
epochs=10)

OPCION 2

En el archivo mi_modelo.hdf5 guardara los mejores pesos del modelo

checkpoint = tf.keras.callbacks.ModelCheckpoint(filepath=鈥榤ejor_modelo.hdf5鈥,
verbose=1,
monitor=鈥榓ccuracy鈥,
save_best_only=True)

hist = model.fit(datagen.flow(x_train, y_train, batch_size=128),
callbacks=[chekcpoint],
steps_per_epoch=x_train.shape[0] // 128,
epochs=20,
verbose=2,
shuffle=True, #??
validation_data=(x_valid, y_valid) # <-
)

#tiene el mejor modelo

model2 = model
model2.load_weights(鈥./mejor_modelo.hdf5鈥)
model2.evaluate(test_image, test_labels)
Error, Accuracy

Resumen, tomo archivo hdf5 cuando tuve los mejores pesos
Y luego lo cargo, y verifico su error y su accuracy

OPCION 3

from tensorflow.keras.callbacks import Callback

class TrainingCallback(Callback):
def on_epoch_end(self, epoch, logs = {}):
if logs.get(鈥渁ccuracy鈥) > 0.90:
print("Modelo llego a 95%, STOP "+str(epoch))
self.model.stop_training = True

callback = TrainingCallback()

history=model.fit(train_images,
train_labels,
batch_size=64,
callbacks = [callback],
epochs=40)