ICode9

精准搜索请尝试: 精确搜索
首页 > 系统相关> 文章详细

python torch节约内存开销的运算方法

2022-01-23 12:32:56  阅读:159  来源: 互联网

标签:after 运算 python torch ones 内存 id before


  示例如下,首先创建两个两行一列,值全为1的张量a和b,然后将b加到a上,使用python自带的id函数来获取a和b的内存地址。下面依次演示不同方法获得结果的差异:
  

1. +运算

a = torch.ones(2,1)
b = torch.ones(2,1)
before_id = id(a)
a = a + b
after_id = id(a)
before_id == after_id

  输出为:

False

  

2. +=运算

a = torch.ones(2,1)
b = torch.ones(2,1)
before_id = id(a)
a += b
after_id = id(a)
before_id == after_id

  输出为:

True

  

3. [:]运算

a = torch.ones(2,1)
b = torch.ones(2,1)
before_id = id(a)
a[:] = a + b
after_id = id(a)
before_id == after_id

  输出为:

True

  

4 总结

  从上面三个示例可以看出,+运算不是原地操作,我们将取消引用a指向的张量,转而指向新分配的内存处的张量。这可能是不可取的,原因有两个:首先,我们不想总是不必要地分配内存。 在机器学习中,我们可能有数百兆的参数,并且在一秒内多次更新所有参数。 通常情况下,我们希望原地执行这些更新。 其次,如果我们不原地更新,其他引用仍然会指向旧的内存位置, 这样我们的某些代码可能会无意中引用旧的参数。
  幸运的是,执行原地操作非常简单。 我们可以使用+=的方式进行,也可以使用切片表示法[:]将操作的结果分配给先前分配的数组,这样可以减少操作的内存开销。

标签:after,运算,python,torch,ones,内存,id,before
来源: https://blog.csdn.net/weixin_44120025/article/details/122649639

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有