ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

CNN

2021-12-16 13:03:47  阅读:221  来源: 互联网

标签:输出 卷积 池化 112 CNN 64 224


稀疏交互

每个输出神经元仅与前一层特定局部区域内的神经元存在权重连接。

假设网络中相邻两层分别具有m个输入和n个输出。全连接网络中的权值参数矩阵为m*n个参数。对于CNN,如果限定每个输出与前一层的神经元连接个数为K,那么该层的参数总量为k*n

物理意义:先学习局部特征,再将局部特征组合起来形成更复杂的抽象特征。

参数共享

同一个模型中的不同模块使用相同的参数。

物理意义:使得卷积层具有平移等变性

输出尺寸

\[N: 输入的宽, F:卷积核的大小, stride:步长 \]

\[output_{size} = \frac{N-F+2*pad}{stride}+1 \]

池化

常用的池化操作主要针对非重叠区域,包括均值池化,最大池化。

参数量

计算公式:\(参数量=(filter size * 前一层特征图的通道数 )* 当前层filter数量\)

VGG-16为例,Conv1-1,输入 224*224*3 ,64个3*3filter,输出feature map 224*224*64

Conv1-1的参数量为 3*3*3*64

Conv2-1,输入 112*112*64 ,128个3*3 filter,输出feature map 112*112*128

Conv2-1的参数量 3*3*64*128

常见trick

  • 1×1卷积核的作用
    • 1.实现跨通道的交互和信息整合
    • 2.进行卷积核通道数的降维和升维

标签:输出,卷积,池化,112,CNN,64,224
来源: https://www.cnblogs.com/xchenblogs/p/15697368.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有