No tienes acceso a esta clase

隆Contin煤a aprendiendo! 脷nete y comienza a potenciar tu carrera

Aprende Ingl茅s, Programaci贸n, AI, Ciberseguridad y mucho m谩s.

Antes: $249

Currency
$209
Suscr铆bete

Termina en:

3 D铆as
9 Hrs
38 Min
17 Seg

Debugging de operaciones con tensores

5/24
Recursos

Aportes 4

Preguntas 1

Ordenar por:

驴Quieres ver m谩s aportes, preguntas y respuestas de la comunidad?

Si alguien esta utilizando una Mac con los chips nuevos de Apple, se puede usar torch.backends.mps.is\_available(), para checar la disponibilidad del GPU
Mis apuntes: `import torch` `tensor = torch.tensor([[1, 2], [3, 4], [5, 6]])print('tensor: \n',tensor)print("Shape del tensor:", tensor.shape) 聽# Output: (3, 2)print("N煤mero de dimensiones:", tensor.dim()) 聽# Output: 2` `#tensor = torch.tensor([[[1, 2], [3, 4], [5, 6]],[[1992,1992],[1993,1992],[1994,1994]]]) 聽-> shape = [2,3,2]` `tensor_float = torch.tensor([[1.0, 2.0], [3.0, 4.0]])tensor_int = torch.tensor([[1, 2], [3, 4]])` `print("Tipo de datos del tensor float:", tensor_float.dtype) 聽# Output: torch.float32print("Tipo de datos del tensor int:", tensor_int.dtype) 聽# Output: torch.int64` `#sumamos los dos para ver como hace el broadcasting del tipo -> int a float:tensor_sumado = tensor_float + tensor_intprint('El tensor sumado tiene tipo', tensor_sumado.dtype)` `#Para cambiar manualmente los dtypes:tensor_float = torch.tensor([[1.0, 2.0], [3.0, 4.0]])tensor_int = tensor_float.to(torch.int64)` `print("Tensor original (float):", tensor_float.dtype) 聽# Output: torch.float32print("Tensor convertido (int):", tensor_int.dtype) 聽# Output: torch.int64` `#Operaciones dentro de distintos devices:#Verificamos donde esta el tensor:print('Tensor_float esta en el device: ',tensor_float.device)#Reasignamos al GPU:tensor_float = tensor_float.to(torch.device('cuda'))#Verificamos:print('Tensor_float esta en el device: ',tensor_float.device) #-> cuda:0` `#Hagamos una operacion entre distintos devices:tensor_sumado = tensor_float + tensor_int#Da Error: RuntimeError: Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cpu!#Debemos tener los tensores en el mismo device si queremos operarlos entre ellos:` `device = torch.device("cuda" if torch.cuda.is_available() else "cpu")` `tensor_int = tensor_int.to(device)` `# Operaci贸n entre tensores en el mismo dispositivotensor_sumado = tensor_float + tensor_intprint('Suma exitosa entre tensores del mismo device', tensor_sumado)`
Runtime> Change RunTime type > T4 GPU De esta forma se habilita el CUDA
Hola*# Funci贸n para operar con cuda si hay en el hardware*if torch.cuda.is\_available(): matriz\_uinit64\_cuda = matriz\_uinit64.to(torch.device("cuda")) print(matriz\_uinit64\_cuda, matriz\_uinit64\_cuda.type()) print(matriz\_uinit64\_cuda.to("cpu", torch.float32)) para el caso que este realizando en local, sino tengo GPU y tengo solo CPU el codigo no deberia mostrarme nada? ```js # Funci贸n para operar con cuda si hay en el hardware if torch.cuda.is_available(): matriz_uinit64_cuda = matriz_uinit64.to(torch.device("cuda")) print(matriz_uinit64_cuda, matriz_uinit64_cuda.type()) print(matriz_uinit64_cuda.to("cpu", torch.float32)) ```