如何进行PyTorch的GPU使用

这期内容当中小编将会给大家带来有关如何进行PyTorch的GPU使用,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。

GPU如何使用

一般我们只有一个GPU,所以使用GPU训练需要输入:

        device = torch.device("cuda:0")      # 声明用到的是第0块GPU

        model = Model(input_size, output_size)      # Model是网络名,一般是类名。实例化Model

        model = model.to(device)      # 将实例化的model送入GPU中。

上面这一步将model送入了GPU,我们还需要把输入数据、真值也送入GPU中,于是也必须有:

        inputs, labels = inputs.to(device), labels.to(device)

注意:

    在pytorch里,inputs.to(device)和inputs.cuda()效果是一样的。

    在pytorch里, 对于tensor,b=a.to(device)和a.to(device)是不一样的,前者会让b进入GPU,而后者并不会让a进入GPU。

                            对于model,b=a.to(device)和a.to(device)是一样的,b和a都会进入GPU。

上述就是小编为大家分享的如何进行PyTorch的GPU使用了,如果刚好有类似的疑惑,不妨参照上述分析进行理解。如果想知道更多相关知识,欢迎关注行业资讯频道。