ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

残差加se块pytorch实现

2022-01-17 14:32:34  阅读:176  来源: 互联网

标签:conv3 nn self 残差 channels stride pytorch se out


class Residual(nn.Module):     def __init__(self,in_channels,out_channels,use_1x1conv=False,stride=1):         super(Residual,self).__init__()         self.conv1=nn.Conv2d(in_channels,out_channels,kernel_size=3,padding=1,stride=stride)                 self.conv2=nn.Conv2d(out_channels,out_channels,kernel_size=3,padding=1)         if use_1x1conv:             self.conv3=nn.Conv2d(in_channels,out_channels,kernel_size=1,stride=stride)         else:             self.conv3=None         self.bn1=nn.BatchNorm2d(out_channels)         self.bn2=nn.BatchNorm2d(out_channels)         self.avg_pool=nn.AdaptiveAvgPool2d(1)         self.fc=nn.Sequential(nn.Linear(out_channels,out_channels,bias=False),                               nn.ReLU(inplace=True),                               nn.Linear(out_channels,out_channels,bias=False),                               nn.Sigmoid())
    def forward(self,X):                 Y=F.relu(self.bn1(self.conv1(X)))         Y=self.bn2(self.conv2(Y))         if self.conv3:             X=self.conv3(X)         b,c,_,_=Y.size()         y=self.avg_pool(Y).view(b,c)         y=self.fc(y).view(b,c,1,1)         Y=y.expand_as(Y)*Y         return F.relu(Y+X)

标签:conv3,nn,self,残差,channels,stride,pytorch,se,out
来源: https://www.cnblogs.com/hahaah/p/15813322.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有