Cómo utilizar TensorFlow 2.0 con Python

1

Redes neuronales con TensorFlow

2

Introducción a TensorFlow 2.0

Manejo y preprocesamiento de datos para redes neuronales

3

Uso de data pipelines

4

Cómo cargar bases de datos JSON

5

Cargar bases de datos CSV y BASE 64

6

Preprocesamiento y limpieza de datos

7

Keras datasets

8

Datasets generators

9

Aprende a buscar bases de datos para deep learning

10

Cómo distribuir los datos

11

Crear la red neural, definir capas, compilar, entrenar, evaluar y predicciones

Optimización de precisión de modelos

12

Métodos de regularización: overfitting y underfitting

13

Recomendaciones prácticas para ajustar un modelo

14

Métricas para medir la eficiencia de un modelo: callback

15

Monitoreo del entrenamiento en tiempo real: early stopping y patience

16

KerasTuner: construyendo el modelo

17

KerasTuner: buscando la mejor configuración para tu modelo

Almacenamiento y carga de modelos

18

Almacenamiento y carga de modelos: pesos y arquitectura

19

Criterios para almacenar los modelos

Fundamentos de aprendizaje por transferencia

20

Introducción al aprendizaje por transferencia

21

Cuándo utilizar aprendizaje por transferencia

22

Carga de sistemas pre-entrenados en Keras

23

API funcional de Keras

24

Uso sistemas pre-entrenados de TensorFlow Hub

Resultados de entrenamiento

25

Introducción a variables relevantes del TensorBoard

26

Análisis y publicación de resultados del entrenamiento

27

Introducción al despliegue de modelos en producción

28

Siguientes pasos con deep learning

Aún no tienes acceso a esta clase

Crea una cuenta y continúa viendo este curso

Aprende a buscar bases de datos para deep learning

9/28
Recursos

Aportes 9

Preguntas 1

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad? Crea una cuenta o inicia sesión.

Base de datos Tumor Brain

wget: !wget --no-check-certificate https://github.com/SartajBhuvaji/Brain-Tumor-Classification-DataSet/archive/refs/heads/master.zip \ -O /tmp/brain-tumor-classification-dataset

Hola Adonaí saludos desde Bucaramanga
Desarrolle un contador vehicular desplegado en una Jetson nano que hacia detección clasificación y seguimiento para cada clase de vehículo el problema que presente cuando use datasets públicos es que por ejemplo cargan imágenes de una camioneta y la etiquetan como camión en ese caso opte por construir mi propio dataset o que hay muchos objetos y solo usa una unica etiqueta siempre siempre siempre se deben revisar los datos que descargamos que cumplan nuestros requerimientos

CEPALSTAT
Bases de Datos y Publicaciones Estadísticas
https://statistics.cepal.org/portal/cepalstat/index.html?lang=es

La base de datos que estoy usando la descargué de Kaggle, y son imágenes de radiografías de tórax.
https://www.kaggle.com/paultimothymooney/chest-xray-pneumonia

Soy amante del Smart Farming, y creamé que encontré el dataset más bonitos de todos https://github.com/softwaremill/lemon-dataset

Dataset de natacion para clasificar los estilos
https://www.kaggle.com/seanmc4/swimmers

no logre encontrar una base de datos de aglomeraciones de basura , existe de basura si pero yo estoy interesado en aglomeraciones de basura que solucion me podrian ayudar?

recomendadoooo https://www.youtube.com/watch?v=_4A9inxGqRM&ab_channel=TheAIGuy para descargar imagenes con su respectiva etiqueta de diversas clases automaticamente y permite la transformacion a diversos formatos como Darknet, pascal …

Base de datos de carros de Stanford, adjunto comandos para descarga de datasets:

!wget --no-check-certificate http://ai.stanford.edu/~jkrause/car196/cars_train.tgz \
      -O /tmp/cars-dataset.tgz 
!wget --no-check-certificate http://ai.stanford.edu/~jkrause/car196/cars_test.tgz \
      -O /tmp/cars-test-dataset.tgz 

Documentación dataset: https://ai.stanford.edu/~jkrause/cars/car_dataset.html