pt

获取梯度

x = torch.ones(2, 2, requires_grad=True)
y = x + 2
z = y * y * 3
out = z.mean()
out.backward()
print(x.grad)
最底层的x需要grad,所以它的上层自然默认求梯度

取出tensor

x = torch.randn(1)
print(x.item())
只有一个元素用item取出数字

x = torch.randn(2)
x1 = x[0]
x1 还是tensor,是x的第一个元素,取出数字用item
x1.item()

tensor 和 np.array转换

对于tensor用.numpy变为numpy数组
a = torch.ones(5)
b = a.numpy()
注意a、b共享内存,即同时改变

对于numpy,用from_numpy变为tensor
import numpy as np
a = np.ones(5)
b = torch.from_numpy(a)

cpu和gpu的变量

数据在cpu、gpu移动。默认若不声明,即cpu。定义的时候,device处指定。
只有同device变量才可运算
if torch.cuda.is_available():
    device = torch.device("cuda")        
    y = torch.ones_like(x, device=device)  
    x = x.to(device)                     
    z = x + y
    print(z)
    z = z.to("cpu", torch.double)
    print(z)      

pt