Cómo utilizar TensorFlow 2.0 con Python

1

Redes neuronales con TensorFlow

2

Introducción a TensorFlow 2.0

Manejo y preprocesamiento de datos para redes neuronales

3

Uso de data pipelines

4

Cómo cargar bases de datos JSON

5

Cargar bases de datos CSV y BASE 64

6

Preprocesamiento y limpieza de datos

7

Keras datasets

8

Datasets generators

9

Aprende a buscar bases de datos para deep learning

10

Cómo distribuir los datos

11

Crear la red neural, definir capas, compilar, entrenar, evaluar y predicciones

Optimización de precisión de modelos

12

Métodos de regularización: overfitting y underfitting

13

Recomendaciones prácticas para ajustar un modelo

14

Métricas para medir la eficiencia de un modelo: callback

15

Monitoreo del entrenamiento en tiempo real: early stopping y patience

16

KerasTuner: construyendo el modelo

17

KerasTuner: buscando la mejor configuración para tu modelo

Almacenamiento y carga de modelos

18

Almacenamiento y carga de modelos: pesos y arquitectura

19

Criterios para almacenar los modelos

Fundamentos de aprendizaje por transferencia

20

Introducción al aprendizaje por transferencia

21

Cuándo utilizar aprendizaje por transferencia

22

Carga de sistemas pre-entrenados en Keras

23

API funcional de Keras

24

Uso sistemas pre-entrenados de TensorFlow Hub

Resultados de entrenamiento

25

Introducción a variables relevantes del TensorBoard

26

Análisis y publicación de resultados del entrenamiento

27

Introducción al despliegue de modelos en producción

28

Siguientes pasos con deep learning

No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

Aprende a buscar bases de datos para deep learning

9/28
Recursos

Cuando te encuentres desarrollando tus proyectos de deep learning es de vital importancia conocer la naturaleza de los datos que vas a consumir durante el entrenamiento, donde en ocasiones podrías optar por crear tus propios datasets.

Sin embargo, es de vital importancia reconocer los repositorios que la web nos puede ofrecer ya que puede darse el caso en el que otros desarrolladores han invertido tiempo en crear un dataset robusto y profesional que podrás aprovechar.

Repositorios populares de datasets

Existen varios repositorios de datos a través de la web, donde la primer aproximación puede ser la de los datos públicos, puedes acceder a diferentes páginas gubernamentales que ofrecen estos datos de manera abierta como los del gobierno colombiano.

Kaggle es la comunidad más grande de machine learning del mundo, uno de sus apartados principales son datasets generados por la comunidad, donde puedes hacer búsquedas específicas y encontrar bases de datos de alto valor.

Google ofrece su propio motor de búsqueda de datasets que combina repositorios de diferentes fuentes y los ofrece al público.

Data World es un repositorio de datasets de pago donde podrás encontrar bases de datos de alta calidad por un precio. No es descabellado pensar en pagar por un dataset, porque al hacerlo estarás ahorrándote el tiempo de etiquetar manualmente cada ejemplo.

La comunidad de Github ha hecho su propia recolección de datasets de diferentes categorías, sientete libre de explorar la plataforma para hallar bases de datos de alto interés.

Con eso ya conoces diferentes fuentes de datasets para tus proyectos, no dudes en indagar sobre casos que te llamen la tención para entender su estructura y propósito.

Contribución creada por Sebastián Franco Gómez.

Aportes 13

Preguntas 1

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

Hola Adonaí saludos desde Bucaramanga
Desarrolle un contador vehicular desplegado en una Jetson nano que hacia detección clasificación y seguimiento para cada clase de vehículo el problema que presente cuando use datasets públicos es que por ejemplo cargan imágenes de una camioneta y la etiquetan como camión en ese caso opte por construir mi propio dataset o que hay muchos objetos y solo usa una unica etiqueta siempre siempre siempre se deben revisar los datos que descargamos que cumplan nuestros requerimientos

Soy amante del Smart Farming, y creamé que encontré el dataset más bonitos de todos https://github.com/softwaremill/lemon-dataset

Base de datos Tumor Brain

wget: !wget --no-check-certificate https://github.com/SartajBhuvaji/Brain-Tumor-Classification-DataSet/archive/refs/heads/master.zip \ -O /tmp/brain-tumor-classification-dataset

La base de datos que estoy usando la descargué de Kaggle, y son imágenes de radiografías de tórax.
https://www.kaggle.com/paultimothymooney/chest-xray-pneumonia

Otra fuente de datasets es hugging face https://huggingface.co/datasets , que tiene datasets de código abierto generados por la comunidad, con enfoque a entrenar y reentrenar modelos de inteligencia artificial

CEPALSTAT
Bases de Datos y Publicaciones Estadísticas
https://statistics.cepal.org/portal/cepalstat/index.html?lang=es

Dataset de natacion para clasificar los estilos
https://www.kaggle.com/seanmc4/swimmers

Conjunto de datos de puntos de referencia de Google V2

Más de 5 millones de imágenes (el doble que la V1)
Más de 200 mil puntos de referencia diferentes (un aumento de 7 veces)

https://storage.googleapis.com/gld-v2/web/index.html

Hola, elegi esta base de datos para el proyecto https://www.kaggle.com/datasets/emirhanai/planets-and-moons-dataset-ai-in-space
Es sobre los planetas del sistema solar y la luna

Para los interesados en robótica🤖, he aquí un repositorio con múltiples datasets de SLAM (Simultaneous Localization and Mapping):
https://github.com/youngguncho/awesome-slam-datasets#mapping

no logre encontrar una base de datos de aglomeraciones de basura , existe de basura si pero yo estoy interesado en aglomeraciones de basura que solucion me podrian ayudar?

recomendadoooo https://www.youtube.com/watch?v=_4A9inxGqRM&ab_channel=TheAIGuy para descargar imagenes con su respectiva etiqueta de diversas clases automaticamente y permite la transformacion a diversos formatos como Darknet, pascal …

Base de datos de carros de Stanford, adjunto comandos para descarga de datasets:

!wget --no-check-certificate http://ai.stanford.edu/~jkrause/car196/cars_train.tgz \
      -O /tmp/cars-dataset.tgz 
!wget --no-check-certificate http://ai.stanford.edu/~jkrause/car196/cars_test.tgz \
      -O /tmp/cars-test-dataset.tgz 

Documentación dataset: https://ai.stanford.edu/~jkrause/cars/car_dataset.html