标签:... optimizer optim 不同 模型 torch 学习 pytorch part
torch.optim中的优化器接收的待学习参数和学习率实际上都是字典型的数据。
因此,我们只需要将需要单独训练的模块和对应的学习率以字典形式传入即可。
例如:
此处,我们有模型model,其中包含part_1和part_2两个子模块,我们想要分别对其设置0.01与0.02的学习率,于是我们可以按照以下语法设置优化器
import torch.optim as optim ... optimizer = optim.Adam([{'params': model.part_1.parameters(), 'lr': 0.01}, {'params': catp.part_2.parameters(), 'lr': 0.02}]) ... optimizer.step() ...
标签:...,optimizer,optim,不同,模型,torch,学习,pytorch,part 来源: https://www.cnblogs.com/s-tyou/p/16558717.html
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。