C贸mo utilizar TensorFlow 2.0 con Python

1

Redes neuronales con TensorFlow

2

Introducci贸n a TensorFlow 2.0

Manejo y preprocesamiento de datos para redes neuronales

3

Uso de data pipelines

4

C贸mo cargar bases de datos JSON

5

Cargar bases de datos CSV y BASE 64

6

Preprocesamiento y limpieza de datos

7

Keras datasets

8

Datasets generators

9

Aprende a buscar bases de datos para deep learning

10

C贸mo distribuir los datos

11

Crear la red neural, definir capas, compilar, entrenar, evaluar y predicciones

Optimizaci贸n de precisi贸n de modelos

12

M茅todos de regularizaci贸n: overfitting y underfitting

13

Recomendaciones pr谩cticas para ajustar un modelo

14

M茅tricas para medir la eficiencia de un modelo: callback

15

Monitoreo del entrenamiento en tiempo real: early stopping y patience

16

KerasTuner: construyendo el modelo

17

KerasTuner: buscando la mejor configuraci贸n para tu modelo

Almacenamiento y carga de modelos

18

Almacenamiento y carga de modelos: pesos y arquitectura

19

Criterios para almacenar los modelos

Fundamentos de aprendizaje por transferencia

20

Introducci贸n al aprendizaje por transferencia

21

Cu谩ndo utilizar aprendizaje por transferencia

22

Carga de sistemas pre-entrenados en Keras

23

API funcional de Keras

24

Uso sistemas pre-entrenados de TensorFlow Hub

Resultados de entrenamiento

25

Introducci贸n a variables relevantes del TensorBoard

26

An谩lisis y publicaci贸n de resultados del entrenamiento

27

Introducci贸n al despliegue de modelos en producci贸n

28

Siguientes pasos con deep learning

No tienes acceso a esta clase

隆Contin煤a aprendiendo! 脷nete y comienza a potenciar tu carrera

Aprende a buscar bases de datos para deep learning

9/28
Recursos

Cuando te encuentres desarrollando tus proyectos de deep learning es de vital importancia conocer la naturaleza de los datos que vas a consumir durante el entrenamiento, donde en ocasiones podr铆as optar por crear tus propios datasets.

Sin embargo, es de vital importancia reconocer los repositorios que la web nos puede ofrecer ya que puede darse el caso en el que otros desarrolladores han invertido tiempo en crear un dataset robusto y profesional que podr谩s aprovechar.

Repositorios populares de datasets

Existen varios repositorios de datos a trav茅s de la web, donde la primer aproximaci贸n puede ser la de los datos p煤blicos, puedes acceder a diferentes p谩ginas gubernamentales que ofrecen estos datos de manera abierta como los del gobierno colombiano.

Kaggle es la comunidad m谩s grande de machine learning del mundo, uno de sus apartados principales son datasets generados por la comunidad, donde puedes hacer b煤squedas espec铆ficas y encontrar bases de datos de alto valor.

Google ofrece su propio motor de b煤squeda de datasets que combina repositorios de diferentes fuentes y los ofrece al p煤blico.

Data World es un repositorio de datasets de pago donde podr谩s encontrar bases de datos de alta calidad por un precio. No es descabellado pensar en pagar por un dataset, porque al hacerlo estar谩s ahorr谩ndote el tiempo de etiquetar manualmente cada ejemplo.

La comunidad de Github ha hecho su propia recolecci贸n de datasets de diferentes categor铆as, sientete libre de explorar la plataforma para hallar bases de datos de alto inter茅s.

Con eso ya conoces diferentes fuentes de datasets para tus proyectos, no dudes en indagar sobre casos que te llamen la tenci贸n para entender su estructura y prop贸sito.

Contribuci贸n creada por Sebasti谩n Franco G贸mez.

Aportes 11

Preguntas 1

Ordenar por:

驴Quieres ver m谩s aportes, preguntas y respuestas de la comunidad?

o inicia sesi贸n.

Hola Adona铆 saludos desde Bucaramanga
Desarrolle un contador vehicular desplegado en una Jetson nano que hacia detecci贸n clasificaci贸n y seguimiento para cada clase de veh铆culo el problema que presente cuando use datasets p煤blicos es que por ejemplo cargan im谩genes de una camioneta y la etiquetan como cami贸n en ese caso opte por construir mi propio dataset o que hay muchos objetos y solo usa una unica etiqueta siempre siempre siempre se deben revisar los datos que descargamos que cumplan nuestros requerimientos

Soy amante del Smart Farming, y cream茅 que encontr茅 el dataset m谩s bonitos de todos https://github.com/softwaremill/lemon-dataset

Base de datos Tumor Brain

wget: !wget --no-check-certificate https://github.com/SartajBhuvaji/Brain-Tumor-Classification-DataSet/archive/refs/heads/master.zip \ -O /tmp/brain-tumor-classification-dataset

La base de datos que estoy usando la descargu茅 de Kaggle, y son im谩genes de radiograf铆as de t贸rax.
https://www.kaggle.com/paultimothymooney/chest-xray-pneumonia

CEPALSTAT
Bases de Datos y Publicaciones Estad铆sticas
https://statistics.cepal.org/portal/cepalstat/index.html?lang=es

Dataset de natacion para clasificar los estilos
https://www.kaggle.com/seanmc4/swimmers

Hola, elegi esta base de datos para el proyecto https://www.kaggle.com/datasets/emirhanai/planets-and-moons-dataset-ai-in-space
Es sobre los planetas del sistema solar y la luna

Para los interesados en rob贸tica馃, he aqu铆 un repositorio con m煤ltiples datasets de SLAM (Simultaneous Localization and Mapping):
https://github.com/youngguncho/awesome-slam-datasets#mapping

no logre encontrar una base de datos de aglomeraciones de basura , existe de basura si pero yo estoy interesado en aglomeraciones de basura que solucion me podrian ayudar?

recomendadoooo https://www.youtube.com/watch?v=_4A9inxGqRM&ab_channel=TheAIGuy para descargar imagenes con su respectiva etiqueta de diversas clases automaticamente y permite la transformacion a diversos formatos como Darknet, pascal 鈥

Base de datos de carros de Stanford, adjunto comandos para descarga de datasets:

!wget --no-check-certificate http://ai.stanford.edu/~jkrause/car196/cars_train.tgz \
      -O /tmp/cars-dataset.tgz 
!wget --no-check-certificate http://ai.stanford.edu/~jkrause/car196/cars_test.tgz \
      -O /tmp/cars-test-dataset.tgz 

Documentaci贸n dataset: https://ai.stanford.edu/~jkrause/cars/car_dataset.html