ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

【论文解读】Wing Loss for Robust Facial Landmark Localisation with Convolutional Neural Networks

2019-05-05 18:55:33  阅读:1023  来源: 互联网

标签:Convolutional Loss errors 函数 Neural 损失 L2 L1 loss


    这篇论文有以下4个方面的贡献,在这里我主要是分析前两点贡献,这也是让我感觉最新颖的地方:

  1.   对基于CNN的人脸关键点检测方法中用到的各类损失函数做了系统分析,比较了L1、L2以及smooth L1损失函数,发现L1和smooth L1比L2性能更优;
  2. 提出了一个新的损失函数Wing loss,旨在提高深度网络训练过程中应对小范围和中等范围内的误差的能力;
  3. 提出了基于姿态的(pose-based)的数据增量策略,主要解决训练数据平衡性;
  4. 提出一个二阶段的人脸关键点检测网络;

 

    图3展示了L1、L2以及Smooth L1损失函数的曲线,其数学表达式分别如下:

损失函数对x的导数分别为:

观察 (4),当 x 增大时 L_2 损失对 x 的导数也增大。这就导致训练初期,预测值与gt差异过于大时,损失函数对预测值的梯度十分大,导致训练不稳定。根据方程 (5),L_1x 的导数为常数。在训练后期,预测值与 ground truth 差异很小时, L_1 损失对预测值的导数的绝对值仍然为1,此时learning rate 如果不变,损失函数将在稳定值附近波动,难以继续收敛以达到更高精度。再看表达 式(6), \mathrm{smooth}_{L_1}x 较小时,对 x 的梯度也会变小,而在 x 很大时,对 x 的梯度的绝对值达到上限 1,也不会太大以至于破坏网络参数。 \mathrm{smooth}_{L_1} 完美地避开了 L_1L_2 损失的缺陷。根据fast rcnn的说法,"...... L1 loss that is less sensitive to outliers than the L2 loss used in R-CNN and SPPnet." 也就是smooth L1 loss让loss对于离群点更加鲁棒,即:相比于L2损失函数,其对离群点、异常值(outlier)不敏感,梯度变化相对更小,训练时不容易跑飞。人脸关键点检测中复杂的地方就在于需要同时优化很多个点(如:68个点)的位置,单纯地使用L1或L2难以达到目标。

    对于人脸关键点检测问题,假如训练图像为I,网络为\Phi,可以将要预测的人脸关键表示为向量s^{'}=\Phi (I)),则损失定义如下:

                                                                    loss(s,s^{'})=\sum_{i=1}^{2L}f(s_{i}-s_{i}^{'})             

s表示人脸关键点向量ground-truth,f(x)就是上面提到的损失函数。作者在AFLW数据集上使用CNN-6网络实验了3种不同的损失函数,其结果如下:

可以惊喜地发现使用L1或者smooth L1损失函数用于训练,就准确率而言提升很明显。再看看累积错误分布曲线(CED,Cumulative Error Distribution),这个曲线我第一眼硬没看懂,直到看到论文中作者的这句话:We can see that all the loss functions analysed in the last section per- form well for large errors. This indicates that the training of a neural network should pay more attention to the sam- ples with small or medium range errors。这么说吧,当NME在0.04的时候,测试数据比例已经接近1了,所以在0.04到0.05这一段,也就是所谓的large errros段,并没有更多的测试数据加入进来,说明各损失函数在large errors段都表现很好。大家表现不一致的地方就在于small errors和medium errors段,这在图上也很明显。例如,你在NME为0.02的地方画一根竖线,一目了然。所以,作者提出训练过程中应该更多关注samll or medium range errros样本。

    small errors的影响可以通过引入诸如ln^{x}这样的对数函数来改善。它的梯度为1/x,越接近0梯度值越大。The magnitude of the optimal step size is x^2(什么意思?)。当综合各个关键点的贡献时,梯度主要是被small errors主导,但是step size是被large errors影响。这样就不同尺度的errors影响的平衡。然而,为了防止在错误的方向上步子迈得太大,不要过度受small errors的影响,因此考虑给log函数加上一个偏置。这样对于应付samll localisation errors已经比较合适了,但是对于特殊姿态的情况,初始errors将会很大,这种情况下损失函数应该能够尽快从large errros中恢复,此时就应该考虑L1或L2这类函数了,由于L2对于离群点比较敏感,所以首推L1。基于这些讨论,作者设计出了一个新的损失函数wing loss,其定义如下:

w是一个非负数,它将非线性部分限制在(-w,w)区间内,\varepsilon用于约束曲线的弯曲程度。C就是一个常量,用于连接损失函数的线性和非线性部分。

【参考文献】

论文:https://arxiv.org/abs/1711.06753

https://www.zhihu.com/question/58200555

 

标签:Convolutional,Loss,errors,函数,Neural,损失,L2,L1,loss
来源: https://blog.csdn.net/ChuiGeDaQiQiu/article/details/89848823

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有