标签:dim torch 张量 shape 拼接 print
张量的拼接有两种主要的基本策略:
不增加张量的维度,只增加某个维度方向的长度:cat()
增加张量的维度,不增加单个维度方向的长度:stack()
第2章 增加张量长度的拼接:cat()
2.1 基本原理
2.2 函数说明
功能:在不改变张量维度的情况下,通过增加张量在某个维度方向的长度,把两个张量拼接起来。
原型:cat(input, dim)
输入参数:
input: 输入张量
dim:拼接的方向
2.3 代码示例
(1)按照dim =0 的方向拼接
# 张量的拼接:阶数不变,增加dim方向的长度
a = torch.Tensor([[1,1,1,1], [2,2,2,2],[3,3,3,3]])
b = torch.Tensor([[4,4,4,4], [5,5,5,5],[5,5,5,5]])
print("源张量")
print(a)
print(a.shape)
print(b)
print(b.shape)
print("\n按照dim=0方向拼接")
c = torch.cat((a,b),dim=0)
print(c)
print(c.shape)
输出:
源张量
tensor([[1., 1., 1., 1.],
[2., 2., 2., 2.],
[3., 3., 3., 3.]])
torch.Size([3, 4])
tensor([[4., 4., 4., 4.],
[5., 5., 5., 5.],
[5., 5., 5., 5.]])
torch.Size([3, 4])
按照dim=0方向拼接
tensor([[1., 1., 1., 1.],
[2., 2., 2., 2.],
[3., 3., 3., 3.],
[4., 4., 4., 4.],
[5., 5., 5., 5.],
[5., 5., 5., 5.]])
torch.Size([6, 4])
(2)按照dim=1的方向进行拼接
# 张量的拼接:增加阶数,
a = torch.Tensor([[1,1,1,1], [2,2,2,2],[3,3,3,3]])
b = torch.Tensor([[4,4,4,4], [5,5,5,5],[5,5,5,5]])
print("源张量")
print(a)
print(a.shape)
print(b)
print(b.shape)
print("\n按照dim=0方向拼接:扩展阶数")
c = torch.stack((a,b),dim=0)
print(c)
print(c.shape)
输出:
源张量
tensor([[1., 1., 1., 1.],
[2., 2., 2., 2.],
[3., 3., 3., 3.]])
torch.Size([3, 4])
tensor([[4., 4., 4., 4.],
[5., 5., 5., 5.],
[5., 5., 5., 5.]])
torch.Size([3, 4])
按照dim=1方向拼接
tensor([[1., 1., 1., 1., 4., 4., 4., 4.],
[2., 2., 2., 2., 5., 5., 5., 5.],
[3., 3., 3., 3., 5., 5., 5., 5.]])
torch.Size([3, 8])
第3章 增加张量维度的拼接:stack()
3.1 基本原理
stack堆叠,可以增加一个维度,因此案例中dim=0,1,2 三种情形,在三种方向进行堆叠。
(1)按照dim = 0的方向堆叠
(2)按照dim = 1的方向堆叠
(3)按照dim = 2的方向堆叠
2.2 函数说明
功能:通过增加张量维度,把两个张量堆叠起来,堆叠后,维度增加1.
原型:stack(input, dim)
输入参数:
input: 输入张量
dim:拼接的方向,这里的dim是指拼接后张量的dim,而不是原张量的dim
2.3 代码示例
(1)dim=0的方向
# 张量的拼接:增加阶数,
a = torch.Tensor([[1,1,1,1], [2,2,2,2],[3,3,3,3]])
b = torch.Tensor([[4,4,4,4], [5,5,5,5],[5,5,5,5]])
print("源张量")
print(a)
print(a.shape)
print(b)
print(b.shape)
print("\n按照dim=0方向拼接:扩展阶数")
c = torch.stack((a,b),dim=0)
print(c)
print(c.shape)
输出:
源张量
tensor([[1., 1., 1., 1.],
[2., 2., 2., 2.],
[3., 3., 3., 3.]])
torch.Size([3, 4])
tensor([[4., 4., 4., 4.],
[5., 5., 5., 5.],
[5., 5., 5., 5.]])
torch.Size([3, 4])
按照dim=0方向拼接:扩展阶数
tensor([[[1., 1., 1., 1.],
[2., 2., 2., 2.],
[3., 3., 3., 3.]],
[[4., 4., 4., 4.],
[5., 5., 5., 5.],
[5., 5., 5., 5.]]])
torch.Size([2, 3, 4])
(2)dim=1的方向
a = torch.Tensor([[1,1,1,1], [2,2,2,2],[3,3,3,3]])
b = torch.Tensor([[4,4,4,4], [5,5,5,5],[5,5,5,5]])
print("源张量")
print(a)
print(a.shape)
print(b)
print(b.shape)
print("\n按照dim=1方向拼接:扩展阶数")
c = torch.stack((a,b),dim=1)
print(c)
print(c.shape)
输出:
源张量
tensor([[1., 1., 1., 1.],
[2., 2., 2., 2.],
[3., 3., 3., 3.]])
torch.Size([3, 4])
tensor([[4., 4., 4., 4.],
[5., 5., 5., 5.],
[5., 5., 5., 5.]])
torch.Size([3, 4])
按照dim=1方向拼接:扩展阶数
tensor([[[1., 1., 1., 1.],
[4., 4., 4., 4.]],
[[2., 2., 2., 2.],
[5., 5., 5., 5.]],
[[3., 3., 3., 3.],
[5., 5., 5., 5.]]])
torch.Size([3, 2, 4])
(3)dim=2的方向
a = torch.Tensor([[1,1,1,1], [2,2,2,2],[3,3,3,3]])
b = torch.Tensor([[4,4,4,4], [5,5,5,5],[5,5,5,5]])
print("源张量")
print(a)
print(a.shape)
print(b)
print(b.shape)
print("\n按照dim=2方向拼接:扩展阶数")
c = torch.stack((a,b),dim=2)
print(c)
print(c.shape)
输出:
源张量
tensor([[1., 1., 1., 1.],
[2., 2., 2., 2.],
[3., 3., 3., 3.]])
torch.Size([3, 4])
tensor([[4., 4., 4., 4.],
[5., 5., 5., 5.],
[5., 5., 5., 5.]])
torch.Size([3, 4])
按照dim=2方向拼接:扩展阶数
tensor([[[1., 4.],
[1., 4.],
[1., 4.],
[1., 4.]],
[[2., 5.],
[2., 5.],
[2., 5.],
[2., 5.]],
[[3., 5.],
[3., 5.],
[3., 5.],
[3., 5.]]])
torch.Size([3, 4, 2])
标签:dim,torch,张量,shape,拼接,print 来源: https://www.cnblogs.com/ltkekeli1229/p/15553906.html
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。