ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

pytorch基础知识(三)

2022-02-06 14:02:29  阅读:212  来源: 互联网

标签:tensor 张量 基础知识 pytorch cuda device GPU cpu


在不同设备上的张量

               张量可以在两个设备上进行存储和进行相关的计算,CPU和GPU。本节内容介绍,张量在不同设备上的存储和转移。

查看张量的存储位置

       在默认情况下pytorch会将张量保存在CPU上。

       使用张量的device的属性查看tensor所在的设备。

tensor_rand1 = torch.rand((3,2))
tensor_rand1.device
#输出
device(type='cpu')

创建时指定存储设备

tensor_rand2 = torch.rand((3,2),device = 'cuda:0')#tensor_rand2存储在0号GPU上
tensor_rand2
#输出
	tensor([[0.4495, 0.5822],
	        [0.4652, 0.8137],
	        [0.8645, 0.4468]], device='cuda:0')

张量转换设备的几种方法

       存储在不同位置的两个张量

tensor_rand1
#tensor_rand1存储在CPU上
tensor_rand2
#tensor_rand2存储在0号GPU上

GPU转移到cpu

       直接使用张量的cpu()方法将张量的存储位置转移到CPU上

tensor3 = tensor_rand2.cpu()
tensor3.device
#输出
	device(type='cpu')

       使用张量to()方法转移
       注cpu要小写

tensor4 = tensor_rand2.to("cpu")
tensor4.device

cpu 转移到GPU

       直接使用张量的cuda(device=None)方法将张量的存储位置转移到GPU上

       参数:device=None 要表明我们转移到第几片GPU上

tensor4 = tensor3.cuda(0)
tensor4.device
#输出
	device(type='cuda', index=0)

       同样我们可以使用张量to()的方法转移

tensor5 = tensor4.to("cuda:0")
tensor5.device
#输出
	device(type='cuda', index=0)

标签:tensor,张量,基础知识,pytorch,cuda,device,GPU,cpu
来源: https://blog.csdn.net/qq_42368048/article/details/122797376

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有