ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

2021-11-13

2021-11-14 00:02:24  阅读:186  来源: 互联网

标签:11 __ 13 conv nn self torch 2021 out


Pytorch学习(1)—— 构建网络模型的四种操作

Pytorch学习(1)—— 构建网络模型的四种操作

利用pytorch来构建网络模型有很多种方法,以下简单列出其中四种。

假设构建一个网络模型如下: 卷积层–Relu层–池化层–全连接层–Relu层–全连接层

首先导入几种方法用到的包:

import torch
import torch.nn.functional as F
from collections import OrderedDict

需要注意的是,无论哪种方法,每一层层中的参数都是可以从外部传进去的,在初始化阶段传入参数;super里的第一个参数是类的名字。

第一种方法

class Net1(torch.nn.Module):
  def __init__(self):
    super(Net1, self).__init__()
    self.conv = torch.nn.Conv2d(3, 16, 3, 1, 1)
    self.dense1 = torch.nn.Linear(32 * 3 * 3, 128)
    self.dense2 = torch.nn.Linear(128, 10)
 
  def forward(self, x):
    x = F.max_pool2d(F.relu(self.conv(x)), 2)
    x = x.view(x.size(0), -1)
    x = F.relu(self.dense1(x))
    x = self.dense2(x)
    return x
 
print("Method 1:")
model1 = Net1()
print(model1)

这种方法比较常用,早期的教程通常就是使用这种方法。

第二种方法

# Method 2 ------------------------------------------
class Net2(torch.nn.Module):
  def __init__(self):
    super(Net2, self).__init__()
    self.conv = torch.nn.Sequential(
      torch.nn.Conv2d(3, 32, 3, 1, 1),
      torch.nn.ReLU(),
      torch.nn.MaxPool2d(2))
    self.dense = torch.nn.Sequential(
      torch.nn.Linear(32 * 3 * 3, 128),
      torch.nn.ReLU(),
      torch.nn.Linear(128, 10)
    )
 
  def forward(self, x):
    conv_out = self.conv(x)
    res = conv_out.view(conv_out.size(0), -1)
    out = self.dense(res)
    return out
 
print("Method 2:")
model2 = Net2()
print(model2)

这种方法利用torch.nn.Sequential()容器进行快速搭建,模型的各层被顺序添加到容器中。缺点是每层的编号是默认的阿拉伯数字,不易区分。

第三种方法

# Method 3 -------------------------------
class Net3(torch.nn.Module):
  def __init__(self):
    super(Net3, self).__init__()
    self.conv=torch.nn.Sequential()
    self.conv.add_module("conv1",torch.nn.Conv2d(3, 32, 3, 1, 1))
    self.conv.add_module("relu1",torch.nn.ReLU())
    self.conv.add_module("pool1",torch.nn.MaxPool2d(2))
    self.dense = torch.nn.Sequential()
    self.dense.add_module("dense1",torch.nn.Linear(32 * 3 * 3, 128))
    self.dense.add_module("relu2",torch.nn.ReLU())
    self.dense.add_module("dense2",torch.nn.Linear(128, 10))
 
  def forward(self, x):
    conv_out = self.conv(x)
    res = conv_out.view(conv_out.size(0), -1)
    out = self.dense(res)
    return out
 
print("Method 3:")
model3 = Net3()
print(model3)

这种方法是对第二种方法的改进:通过add_module()添加每一层,并且为每一层增加了一个单独的名字。

第四种方法

# Method 4 ------------------------------------------
class Net4(torch.nn.Module):
  def __init__(self):
    super(Net4, self).__init__()
    self.conv = torch.nn.Sequential(
      OrderedDict(
        [
          ("conv1", torch.nn.Conv2d(3, 32, 3, 1, 1)),
          ("relu1", torch.nn.ReLU()),
          ("pool", torch.nn.MaxPool2d(2))
        ]
      ))
 
    self.dense = torch.nn.Sequential(
      OrderedDict([
        ("dense1", torch.nn.Linear(32 * 3 * 3, 128)),
        ("relu2", torch.nn.ReLU()),
        ("dense2", torch.nn.Linear(128, 10))
      ])
    )
 
  def forward(self, x):
    conv_out = self.conv(x)
    res = conv_out.view(conv_out.size(0), -1)
    out = self.dense(res)
    return out
 
print("Method 4:")
model4 = Net4()
print(model4)

是第三种方法的另外一种写法,通过字典的形式添加每一层,并且设置单独的层名称。
如有侵权,请联系作者删除,谢谢!

标签:11,__,13,conv,nn,self,torch,2021,out
来源: https://blog.csdn.net/qq_39693607/article/details/121312334

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有