标签:遇到 模型 网络 残差 学习 拟合 ResNet 分母
1.原网络和更深的网络是否一定会有好的结果?
答:从理论上来说,假设新增加的层都是恒等映射,只要原有的层学出跟原模型一样的参数,那么深模型结构就能达到原模型结构的效果。换句话说,原模型的解只是新模型的解的子空间,在新模型解的空间里应该能找到比原模型解对应的子空间更好的结果。但是实践表明,增加网络的层数之后,训练误差往往不降反升。
2.深度网络的退化问题?理由是什么?
答:Degradation problem:网络深度增加时,网络准确度出现饱和,甚至出现下降。
3.退化问题为什么不是过拟合?
答:过拟合是训练精度非常好,而测试精度不行;而这不会是过拟合问题,因为56层网络的训练误差也很高。
4.现在学习的和之前学习的区别在哪里?
答:之前学习的y是一个映射,现在学习的是y-x,也就是残差。
5.为什么残差更容易学习?
答:梯度更明显,残差大小都一样,区别就是分母。普通网络分母是y,是学到的x;而残差网络学到的是上一步的残差y-x,分母更小。
标签:遇到,模型,网络,残差,学习,拟合,ResNet,分母 来源: https://www.cnblogs.com/jumanggege/p/15071121.html
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。