ICode9

精准搜索请尝试: 精确搜索
首页 > 编程语言> 文章详细

Anchor-free目标检测算法系列12:UnitBox(中心点+IOU loss) UnitBox: An Advanced Object Detection Network

2019-08-13 20:08:31  阅读:478  来源: 互联网

标签:loss 12 Loss IOU L2 坐标 UnitBox


                                  UnitBox: An Advanced Object Detection Network

                                                         (ACM 2016

      论文UnitBox是旷世科技的一篇人脸检测文章,代码没有开源。主要的贡献是提出了IOU loss,2.4.5节所讲的DenseBox直接预测当前点与ground truth的四条边的距离,并且使用L2 loss。为了检测不同尺度的目标,Densebox使用了图像金字塔,所以计算量很大。使用L2_Loss意味着把四个坐标当成了独立变量,这显然是与实际不符的,这也是为什么框不准的原因。为了方便灵活灵活地处理各种角度的目标,作者提出了一种新的IOU_Loss,将四个回归值当做一个整体来处理,不仅提高了准确率而且加速了收敛。

预测的四个值并不是人脸框的坐标,而是坐标差值。

                                                         图39 IOU loss示意图

作者在文章给出了L2 loss的缺点。如下图两个人脸框所示,L2 Loss可以看做是欧氏距离,很明显这里面四个坐标是被当做独立变量来优化的。左边的人脸框明显比右边的要准一点,但是脸太大,则导致loss最终反而比右边的大,然后我们就去惩罚这个loss,结果最后检测器对大人脸效果就不好了。而IOU Loss的目的就是使重叠区域越大越好。

                            

                                 图40 IOU Loss与L2 loss计算差别

     UnitBox的网络结构图如下图所示。使用VGG-16模型finetune,只不过去掉了全连接层,然后带有两个全卷积网络分支:一个分支是pixel级别的bounding box差值坐标,一个是分类得分。显然输入应该有3个:原始图片,分类得分图(来描述一个像素是否落入ground truth),包围框误差坐标图(来描述与ground truth四条边的距离),下图中的虚线表示线性插值和crop操作,以保证输出和输入大小一致。

                                                         图41 UnitBox的网络结构

分类得分使用的是sigmoid交叉熵loss,该loss既可以和IOU Loss分开训练也可以联合训练。UnitBox主要用在人脸检测上,但是其思想是anchor-free的。实验在汤晓鸥的WiderFace数据集完成,没有COCO的对比效果。

标签:loss,12,Loss,IOU,L2,坐标,UnitBox
来源: https://blog.csdn.net/weixin_40546602/article/details/99466543

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有