PyTorch基础入门一:PyTorch基本数据类型
1)Tensor(张量)
Pytorch里面处理的最基本的操作对象就是Tensor(张量),它表示的其实就是一个多维矩阵,并有矩阵相关的运算操作。在使用上和numpy是对应的,它和numpy唯一的不同就是,pytorch可以在GPU上运行,而numpy不可以。所以,我们也可以使用Tensor来代替numpy的使用。当然,二者也可以相互转换。
Tensor的基本数据类型有五种:
- 32位浮点型:torch.FloatTensor。pyorch.Tensor()默认的就是这种类型。
- 64位整型:torch.LongTensor。
- 32位整型:torch.IntTensor。
- 16位整型:torch.ShortTensor。
- 64位浮点型:torch.DoubleTensor。
那么如何定义Tensor张量呢?其实定义的方式和numpy一样,直接传入相应的矩阵即可即可。下面就定义了一个三行两列的矩阵:
import torch # 导包 a = torch.Tensor([[1, 2], [3, 4], [5, 6]]) print(a)
不过在项目之中,更多的做法是以特殊值或者随机值初始化一个矩阵,就像下面这样:
import torch # 定义一个3行2列的全为0的矩阵 b = torch.zeros((3, 2)) # 定义一个3行2列的随机值矩阵 c = torch.randn((3, 2)) # 定义一个3行2列全为1的矩阵 d = torch.ones((3, 2)) print(b) print(c) print(d)
Tensor和numpy.ndarray之间还可以相互转换,其方式如下:
- Numpy转化为Tensor:torch.from_numpy(numpy矩阵)
- Tensor转化为numpy:Tensor矩阵.numpy()
范例如下:
import torch import numpy as np # 定义一个3行2列的全为0的矩阵 b = torch.randn((3, 2)) # tensor转化为numpy numpy_b = b.numpy() print(numpy_b) # numpy转化为tensor numpy_e = np.array([[1, 2], [3, 4], [5, 6]]) torch_e = torch.from_numpy(numpy_e) print(numpy_e) print(torch_e)
之前说过,numpy与Tensor最大的区别就是在对GPU的支持上。Tensor只需要调用cuda()函数就可以将其转化为能在GPU上运行的类型。
我们可以通过torch.cuda.is_available()函数来判断当前的环境是否支持GPU,如果支持,则返回True。所以,为保险起见,在项目代码中一般采取“先判断,后使用”的策略来保证代码的正常运行,其基本结构如下:
import torch # 定义一个3行2列的全为0的矩阵 tmp = torch.randn((3, 2)) # 如果支持GPU,则定义为GPU类型 if torch.cuda.is_available(): inputs = tmp.cuda() # 否则,定义为一般的Tensor类型 else: inputs = tmp
2)Variable(变量)
Pytorch里面的Variable类型数据功能更加强大,相当于是在Tensor外层套了一个壳子,这个壳子赋予了前向传播,反向传播,自动求导等功能,在计算图的构建中起的很重要的作用。Variable的结构图如下:
其中最重要的两个属性是:data和grad。Data表示该变量保存的实际数据,通过该属性可以访问到它所保存的原始张量类型,而关于该 variable(变量)的梯度会被累计到.grad 上去。
在使用Variable的时候需要从torch.autograd中导入。下面通过一个例子来看一下它自动求导的过程:
import torch from torch.autograd import Variable # 定义三个Variable变量 x = Variable(torch.Tensor([1, 2, 3]), requires_grad=True) w = Variable(torch.Tensor([2, 3, 4]), requires_grad=True) b = Variable(torch.Tensor([3, 4, 5]), requires_grad=True) # 构建计算图,公式为:y = w * x^2 + b y = w * x * x + b # 自动求导,计算梯度 y.backward(torch.Tensor([1, 1, 1])) print(x.grad) print(w.grad) print(b.grad)
上述代码的计算图为y = w * x^2 + b。对x, w, b分别求偏导为:x.grad = 2wx,w.grad=x^2,b.grad=1。代值检验可得计算结果是正确的。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。
PyTorch,数据类型
免责声明:本站文章均来自网站采集或用户投稿,网站不提供任何软件下载或自行开发的软件! 如有用户或公司发现本站内容信息存在侵权行为,请邮件告知! 858582#qq.com
《魔兽世界》大逃杀!60人新游玩模式《强袭风暴》3月21日上线
暴雪近日发布了《魔兽世界》10.2.6 更新内容,新游玩模式《强袭风暴》即将于3月21 日在亚服上线,届时玩家将前往阿拉希高地展开一场 60 人大逃杀对战。
艾泽拉斯的冒险者已经征服了艾泽拉斯的大地及遥远的彼岸。他们在对抗世界上最致命的敌人时展现出过人的手腕,并且成功阻止终结宇宙等级的威胁。当他们在为即将于《魔兽世界》资料片《地心之战》中来袭的萨拉塔斯势力做战斗准备时,他们还需要在熟悉的阿拉希高地面对一个全新的敌人──那就是彼此。在《巨龙崛起》10.2.6 更新的《强袭风暴》中,玩家将会进入一个全新的海盗主题大逃杀式限时活动,其中包含极高的风险和史诗级的奖励。
《强袭风暴》不是普通的战场,作为一个独立于主游戏之外的活动,玩家可以用大逃杀的风格来体验《魔兽世界》,不分职业、不分装备(除了你在赛局中捡到的),光是技巧和战略的强弱之分就能决定出谁才是能坚持到最后的赢家。本次活动将会开放单人和双人模式,玩家在加入海盗主题的预赛大厅区域前,可以从强袭风暴角色画面新增好友。游玩游戏将可以累计名望轨迹,《巨龙崛起》和《魔兽世界:巫妖王之怒 经典版》的玩家都可以获得奖励。