摘要:Tensor,它能够是0维、一维以及多维的数组,你能够将它看作为神经网络界的Numpy,它与Numpy类似,二者能够共享内存,且之间的转换十分不便。
本文分享自华为云社区《Tensor:Pytorch神经网络界的Numpy》,作者: 择城终老 。
Tensor
Tensor,它能够是0维、一维以及多维的数组,你能够将它看作为神经网络界的Numpy,它与Numpy类似,二者能够共享内存,且之间的转换十分不便。
但它们也不雷同,最大的区别就是Numpy会把ndarray放在CPU中进行减速运算,而由Torch产生的Tensor会放在GPU中进行减速运算。
对于Tensor,从接口划分,咱们大抵可分为2类:
- torch.function:如torch.sum、torch.add等。
- tensor.function:如tensor.view、tensor.add等。
而从是否批改本身来划分,会分为如下2类:
- 不批改本身数据,如x.add(y),x的数据不变,返回一个新的Tensor。
- 批改本身数据,如x.add_(y),运算后果存在x中,x被批改。
简略的了解就是办法名带不带下划线的问题。
当初,咱们来实现2个数组对应地位相加,看看其成果就近如何:
import torchx = torch.tensor([1, 2])y = torch.tensor([3, 4])print(x + y)print(x.add(y))print(x)print(x.add_(y))print(x)
运行之后,成果如下:
上面,咱们来正式解说Tensor的应用形式。
创立Tensor
与Numpy一样,创立Tensor也有很多的办法,能够本身的函数进行生成,也能够通过列表或者ndarray进行转换,同样也能够指定维度等。具体方法如下表(数组即张量):
这里须要留神Tensor有大写的办法也有小写的办法,具体成果咱们先来看看代码:
import torcht1 = torch.tensor(1)t2 = torch.Tensor(1)print("值{0},类型{1}".format(t1, t1.type()))print("值{0},类型{1}".format(t2, t2.type()))
运行之后,成果如下:
其余示例如下:
import torchimport numpy as npt1 = torch.zeros(1, 2)print(t1)t2 = torch.arange(4)print(t2)t3 = torch.linspace(10, 5, 6)print(t3)nd = np.array([1, 2, 3, 4])t4 = torch.from_numpy(nd)print(t4)
其余例子根本与下面根本差不多,这里不在赘述。
批改Tensor维度
同样的与Numpy一样,Tensor一样有维度的批改函数,具体的办法如下表所示:
示例代码如下所示:
import torcht1 = torch.Tensor([[1, 2]])print(t1)print(t1.size())print(t1.dim())print(t1.view(2, 1))print(t1.view(-1))print(torch.unsqueeze(t1, 0))print(t1.numel())
运行之后,成果如下:
截取元素
当然,咱们创立Tensor张量,是为了应用外面的数据,那么就不可避免的须要获取数据进行解决,具体截取元素的形式如表:
示例代码如下所示:
import torch# 设置随机数种子,保障每次运行后果统一torch.manual_seed(100)t1 = torch.randn(2, 3)# 打印t1print(t1)# 输入第0行数据print(t1[0, :])# 输入t1大于0的数据print(torch.masked_select(t1, t1 > 0))# 输入t1大于0的数据索引print(torch.nonzero(t1))# 获取第一列第一个值,第二列第二个值,第三列第二个值为第1行的值# 获取第二列的第二个值,第二列第二个值,第三列第二个值为第2行的值index = torch.LongTensor([[0, 1, 1], [1, 1, 1]])# 取0示意以行为索引a = torch.gather(t1, 0, index)print(a)# 反操作填0z = torch.zeros(2, 3)print(z.scatter_(1, index, a))
运行之后,成果如下:
咱们a = torch.gather(t1, 0, index)对其做了一个图解,不便大家了解。如下图所示:
当然,咱们间接有公司计算,因为这么多数据标线切实不难看,这里博主列出转换公司供大家参考:
当dim=0时,out[i,j]=input[index[i,j]][j]当dim=1时,out[i,j]=input[i][index[i][j]]
简略的数学运算
与Numpy一样,Tensor也反对数学运算。这里,博主列出了罕用的数学运算函数,不便大家参考:
须要留神的是,下面表格所有的函数操作均会创立新的Tensor,如果不须要创立新的,应用这些函数的下划线"_"版本。
示例如下:
t = torch.Tensor([[1, 2]])t1 = torch.Tensor([[3], [4]])t2 = torch.Tensor([5, 6])# t+0.1*(t1/t2)print(torch.addcdiv(t, 0.1, t1, t2))# t+0.1*(t1*t2)print(torch.addcmul(t, 0.1, t1, t2))print(torch.pow(t,3))print(torch.neg(t))
运行之后,成果如下:
下面的这些函数都很好了解,只有一个函数置信没接触机器学习的时候,不大容易了解。也就是sigmoid()激活函数,它的公式如下:
归并操作
简略的了解,就是对张量进行归并或者说共计等操作,这类操作的输入输出维度个别并不相同,而且往往是输出大于输入维度。而Tensor的归并函数如下表所示:
示例代码如下所示:
t = torch.linspace(0, 10, 6)a = t.view((2, 3))print(a)b = a.sum(dim=0)print(b)b = a.sum(dim=0, keepdim=True)print(b)
运行之后,成果如下:
须要留神的是,sum函数求和之后,dim的元素个数为1,所以要被去掉,如果要保留这个维度,则该当keepdim=True,默认为False。
比拟操作
在量化交易中,咱们个别会对股价进行比拟。而Tensor张量同样也反对比拟的操作,个别是进行逐元素比拟。具体函数如下表:
示例代码如下所示:
t = torch.Tensor([[1, 2], [3, 4]])t1 = torch.Tensor([[1, 1], [4, 4]])# 获取最大值print(torch.max(t))# 比拟张量是否相等# equal间接返回True或Falseprint(torch.equal(t, t1))# eq返回对应地位是否相等的布尔值与两者维度雷同print(torch.eq(t, t1))# 取最大的2个元素,返回索引与值print(torch.topk(t, 1, dim=0))
运行之后,输入如下:
矩阵运算
机器学习与深度学习中,存在大量的矩阵运算。与Numpy一样罕用的矩阵运算一样,一种是逐元素相乘,一种是点积乘法。函数如下表所示:
这里有3个次要的点积计算须要辨别,dot()函数只能计算1维张量,mm()函数只能计算二维的张量,bmm只能计算三维的矩阵张量。示例如下:
# 计算1维点积a = torch.Tensor([1, 2])b = torch.Tensor([3, 4])print(torch.dot(a, b))# 计算2维点积a = torch.randint(10, (2, 3))b = torch.randint(6, (3, 4))print(torch.mm(a, b))# 计算3维点积a = torch.randint(10, (2, 2, 3))b = torch.randint(6, (2, 3, 4))print(torch.bmm(a, b))
运行之后,输入如下:
点击关注,第一工夫理解华为云陈腐技术~