Comprender la visión computarizada

1

¿Por qué aprender computer vision?

2

¿Qué es la visión computarizada?

3

Tipos de visión computarizada

4

Introducción a object detection: clasificación + localización

5

Aprende a identificar problemas

Dimensionamiento de proyecto de visión computarizada

6

Cómo definir los tiempos de tu proyecto

7

Cómo costear tu proyecto

8

Cómo identificar los roles necesarios en el proyecto

9

Producto mínimo viable en computer vision

Obtención y procesamiento de los datos

10

Obtención de datos para tu proyecto

11

Limpieza de la base de datos

12

Distribución de datos en entrenamiento y testeo

13

Etiquetado de los datos de test

14

Etiquetado de los datos de train

15

Transforma tu base de datos a TFRecord

16

Transformar CSV a TFRecord

Entrena, testea y optimiza tus modelos

17

Librerías a importar durante fase de entrenamiento

18

Fase de entrenamiento del modelo

19

Balanceo de imágenes y data augmentation

20

Entrena, evalua y optimiza con TensorBoard

21

Validación de modelo en un entorno de ejecución

22

Re-entrenamiento del modelo para obtener mejores resultados

23

Seguimiento de centroides con OpenCV

24

Configuración de los centroides con OpenCV

25

Algoritmo de dirección y conteo con OpenCV

26

Crea un ciclo de entrenamiento de tu modelo: MLOps

Producto con visión computarizada en producción

27

Prepara tu entorno en Google Cloud Platform

28

Carga y preprocesamiento de modelos

29

Postprocesamiento de modelos

30

Despliega y consume tu modelo en producción

31

Bonus: aprende a apagar las máquinas de GCP para evitar sobrecostos

Siguientes pasos en inteligencia artificial

32

Siguientes pasos en inteligencia artificial

33

Comparte tu proyecto de detección de vehículos en carretera y certifícate

Crea una cuenta o inicia sesión

¡Continúa aprendiendo sin ningún costo! Únete y comienza a potenciar tu carrera

Introducción a object detection: clasificación + localización

4/33
Recursos

Aportes 11

Preguntas 1

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

4. Introducción a object detection = clasificación + localización + seguimiento

Detección de objetos

Esta compuesta de dos etapas sucesivas:

  • Localización del objeto: Define una frontera rectangular llamada bounding box alrededor del objeto a detectar.
  • Detección del objeto: Le asigna una etiqueta al objeto.

Arquitectura de la detección de objetos

Se utilizan redes neuronales convolucionales que incluyen las dos etapas —localización y detección.

Métricas relevantes

Además de las dos métricas comunes —accuracy y loss— se tiene otra métrica:

Intersección entre uniones (IoU)

Se utiliza para medir el solapamiento de dos o más bounding boxes. Se define de la siguiente manera.

$$
\text{IOU} = \frac{\text{Intersection}}{Union}
$$

Va de 0 a 1 donde 1 significa que las dos regiones son idénticas.

Object detection and selective search

El sistema utiliza pequeñas ventanas que recorren toda la imagen.

Existe un problema cuando el objeto es más grande que estas ventanas, pues será categorizado múltiples veces en varios bounding boxes que se resuelve con selección selectiva,

Non maximum suppresion (NMS)

Es una variable que define un umbral de IoU que define cuando se deben considerar dos o más bounding boxes de un mismo objeto. Si una bounding box no supera este umbral, es descartada. De lo contrario es almacenada.

Al final, la bounding box elegida es aquella que tiene mayor IoU.

Algortimos más utilizados

  • R-CNN
  • Faster R-CNN
  • YOLO
  • SSD

Single Shot Detector (SSD)

Es el algoritmo que se usa en el curso.

Feature Map

Así se llama el resultado la detección de bounding boxes en SSD.

MobileNet V1

  • Es el clasificador. Es de Google y de bajo coste.

  • Aplica la convolución a cada canal por separado —por ejemplo, en una imagen RGB hay un canal R, un canal G y uno B— en lugar de a toda la matriz. Esto ahorra recursos.

  • DeepWise: Separa las dimensiones de cada color de la matriz en la parte inicial de la red convolucional.

  • PointWise: Da sentido a los resultados individuales de cada dimensión de color, juntándolos.

  • Otra ventaja es que aplican conjuntos de filtros unidos en lugar de los filtros tradicionales.

  • Originalmente el clasificaba sólo 1000 objetos.

MobileNet V2

  • Mejora la V1 agregando un proceso llamado expansión. Si la imagen es pequeña, la expande añadiendo dimensiones hasta 144, haciendo a la red más robusta.

  • Projection Layer Es una capa que devuelve la imagen a sus dimensiones originales.

  • Contempla que existía no linealidad.

Wow!! Una clase densa, pero muy interesante 😃
.
La métrica IoU es también conocida como el índice de Jaccar
Comparto el siguiente artículo para afianzar el entendimiento de esta métrica.

https://towardsdatascience.com/metrics-to-evaluate-your-semantic-segmentation-model-6bcb99639aa2

Que buena clase y que bien explica Adonaí . Imaginense llevar esta clase con un señor todo mal humorado de 60 años, en un salón de clase y encima que le molesta estar repitiendo la explicación. Prefiero estar acá.

BOUNDING BOX
Cuadro delimitador dentro del cual se encuentran todos los pixeles de la imagen analizada.

Detección de objetos es regresión y clasificación al mismo tiempo.

Esos diagramas te dan la idea de la arquitectura de la red.

a poco si
😅😅😅

Curioso

¡Hola!

Quería compartir con ustedes un webinar que se llevará a cabo este jueves 16 de marzo sobre el tema de machine learning aplicado en computer vision. Estoy segura de que será un excelente complemento para este curso.

El profe Adonai Vera estará dando una de las charlas!

A continuación, les comparto el enlace a la página del webinar https://bit.ly/webinar_Platzi