Pytorch中的backward
首先声明Pytorch的backward机制:
y.backward()
时,如果y
是标量(scalar),则不需要为backward()
传入任何参数;
如果y
是张量(tensor),需要传入一个与y
同形的Tensor(张量)
①y是scalar标量
②y是Tensor张量
①如果直接像标量那样计算