Introducción a Computer Vision

1

¿Qué es la visión computarizada y cuáles son sus tipos?

Detección de objetos

2

Introducción a object detection: sliding window y bounding box

3

Generando video de sliding window

4

Introducción a object detection: backbone, non-max suppression y métricas

5

Visualización de IoU en object detection

6

Tipos de arquitecturas en detección de objetos

7

Arquitecturas relevantes en object detection

8

Utilizando un dataset de object detection

9

Carga de dataset de object detection

10

Exploración del dataset de object detection

11

Visualización de bounding boxes en el dataset de object detection

12

Aumentado de datos con Albumentation

13

Implementando Albumentation en object detection

14

Visualizando imágenes con aumentado de datos

15

Utilizando un modelo de object detection pre-entrenado

16

Probar detección de objetos con modelo pre-entrenado

17

Fine-tuning en detección de objetos

18

Fine-tuning en detección de objetos: carga de datos

19

Fine-tuning en detección de objetos: data augmentation

20

Fine-tuning en detección de objetos: entrenamiento

21

Fine-tuning en detección de objetos: visualización de objetos

Quiz: Detección de objetos

Segmentación de objetos

22

Introduciendo la segmentación de objetos

23

Tipos de segmentación y sus arquitecturas relevantes

24

¿Cómo es un dataset de segmentación?

25

Utilizando un dataset de segmentación de objetos

26

Visualización de nuestro dataset de segmentación

27

Creando red neuronal U-Net para segmentación

28

Entrenando y estudiando una red de segmentación

29

Generando predicciones con modelo de object segmentation

Quiz: Segmentación de objetos

Un paso más allá

30

El estado de la cuestión en computer vision

31

Comparte tu proyecto de detección y segmentación de objetos para conducción autónoma y certifícate

No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

No se trata de lo que quieres comprar, sino de quién quieres ser. Aprovecha el precio especial.

Antes: $249

Currency
$209

Paga en 4 cuotas sin intereses

Paga en 4 cuotas sin intereses
Suscríbete

Termina en:

12 Días
20 Hrs
20 Min
43 Seg

Carga de dataset de object detection

9/31
Recursos

Aportes 10

Preguntas 5

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

Para poder descargar directamente un dataset de Kaggle a Colab sin pasar por la máquina que estemos utilizando:

!mkdir ~/.kaggle
!touch ~/.kaggle/kaggle.json

#Los siguientes datos se obtienen del archivo kaggle.json:
api_token = {“username”:[usuario de kaggle],“key”:[api key de Kaggle]}

import json

with open(’/root/.kaggle/kaggle.json’, ‘w’) as file:
json.dump(api_token, file)

!chmod 600 ~/.kaggle/kaggle.json

!kaggle datasets download -d alincijov/self-driving-cars

El .zip se descargará a ‘/content’

Para clonar el repo de TF:

!git clone https://github.com/tensorflow/models

Si alguien tiene problema en un MAC M1 hacer este cambio. Fijarse en la versión en vez de la dos

cd models/research/
protoc object_detection/protos/*.proto --python_out=.
cp object_detection/packages/tf1/setup.py .
python -m pip install . --no-deps

Fuente: https://github.com/B1tstorm/customized_object_detection_system/issues/13

hermanos 😤

%%bash
cd models/research/
protoc object_detection/protos/*.proto --python_out-.
cp object_detection/packages/tf2/setup.py .
python -m pip install .
Hola, estoy intentando desarrollar los pasos desde WSL2 en local pero al intentar importar object\_detection me sale el siguiente error ImportError: cannot import name 'vis' from 'object\_detection.utils'

Porque sera que a platzi le gustan tanto los noteBooks 😦

Para cargar un dataset de detección de objetos en Python, puedes usar bibliotecas como `TensorFlow`, `PyTorch`, o herramientas específicas de carga de datos. Aquí hay una guía para cargar datasets comunes: \### 1. Usando `TensorFlow` y `tf.data.Dataset`: Puedes cargar imágenes y anotaciones con `tf.data.Dataset` para crear un pipeline de datos eficiente. ```python import tensorflow as tf import os \# Ruta del dataset (imágenes y anotaciones) image\_dir = '/ruta/a/imagenes' annotation\_dir = '/ruta/a/anotaciones' def parse\_image\_and\_annotation(image\_path): \# Carga de la imagen image = tf.io.read\_file(image\_path) image = tf.image.decode\_jpeg(image, channels=3) \# Aquí puedes cargar y parsear las anotaciones correspondientes \# Por ejemplo, usando un formato como COCO o Pascal VOC. return image, annotation # Devolver la imagen y la anotación \# Crear un Dataset de TensorFlow image\_paths = \[os.path.join(image\_dir, f) for f in os.listdir(image\_dir)] dataset = tf.data.Dataset.from\_tensor\_slices(image\_paths) dataset = dataset.map(parse\_image\_and\_annotation) ``` \### 2. Usando `PyTorch` y `torchvision`: La biblioteca `torchvision` proporciona métodos para cargar datasets como COCO y PASCAL VOC. ```python import torchvision from torchvision import transforms from torch.utils.data import DataLoader \# Transformaciones de imagen (puedes agregar más según tus necesidades) transform = transforms.Compose(\[ transforms.ToTensor() ]) \# Carga del dataset COCO coco\_dataset = torchvision.datasets.CocoDetection( root='/ruta/a/imagenes', annFile='/ruta/a/anotaciones/annotations.json', transform=transform ) \# Crear un DataLoader para iterar sobre el dataset dataloader = DataLoader(coco\_dataset, batch\_size=4, shuffle=True) \# Iterar sobre el dataloader for images, targets in dataloader: print("Imágenes:", images.shape) print("Anotaciones:", targets) ``` \### 3. Usar bibliotecas especializadas como `FiftyOne`: `FiftyOne` es una biblioteca poderosa para explorar y cargar datasets de visión por computadora. ```python import fiftyone as fo \# Cargar el dataset COCO dataset = fo.zoo.load\_zoo\_dataset( "coco-2017", split="validation", dataset\_dir="/ruta/a/dataset/coco" ) \# Visualizar el dataset en FiftyOne session = fo.launch\_app(dataset) ``` \### Tips: \- \*\*Formatos de anotación\*\*: Asegúrate de que el formato de anotación sea compatible (COCO, PASCAL VOC, etc.). \- \*\*Transformaciones\*\*: Aplica transformaciones (como redimensionar o normalizar) para ajustar el dataset a tu modelo. \- \*\*Data Augmentation\*\*: Puedes usar bibliotecas como `Albumentations` para aumentar el dataset y mejorar la robustez del modelo. Esto debería proporcionarte un punto de partida sólido para cargar y utilizar datasets de detección de objetos.
Estaria bueno tener el requirements.txt para simplemente instalar todo de un solo, no? 🤔
Buenas noches, en google colab no me deja instalar opencv-python-headless==4.1.2.30 ni tensorlow==2.7.0. Me sale lo siguiente: ![](https://static.platzi.com/media/user_upload/image-2010083a-9cc9-4adb-9a36-ee4ab3300ee4.jpg)

Buenazo !!