ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

GFL: Generalized Focal Loss

2021-11-13 18:35:43  阅读:205  来源: 互联网

标签:yi Loss yn score Generalized GFL 所示 Focal


现有的模型存在两个问题:

(1)classification score和quality score(包括IoU和centerness score)训练和推理时不一致.训练的时候这两个score是分别训练的,推理的时候将这两个score相乘作为NMS的依据,如下图(a)所示.

这有可能造成一些错误,如下图所示,在推理过程中,某些负例的cls score很低,但是IoU score又很高,两者相乘得到的乘积比较大,在NMS的时候有可能排在一些正例的前面,从而降低了mAP.

针对这个问题,解决的方法是在训练时就将classification score和quality score联合起来训练,此时分类标签不再是1,而是一个0~1之间的数,也就是IoU或者centerness score.此时将传统的Focal Loss改成了Quality Focal Loss(QFL):

 

其中y是标签label(0~1之间的1个数),delta是预测值.

(2)由于阻挡,影子,模糊等原因,有些GT object的边界不清晰,GT标签不可信,此时用Dirac distribution来处理就受限,解决的办法是采用General distribution,用平坦的分布来表明不清楚和模糊的边界,如下图所示.

把传统的边界回归问题转化为分类问题,把连续的目标值y的取值范围[y0,yn]离散化为[y0,y1,...,yi,yi+1,...,yn-1,yn],也就是把y分成n+1个单位,也就相当于n+1个类,离y最近的两个类yi+1和yi作为目标,计算下面的Distribution Focal Loss(DFL):

Generalized Focal Loss(GFL)包括了QFL和DFL两部分,如下图所示.

 通过实验,证明了GFL提高了mAP.

标签:yi,Loss,yn,score,Generalized,GFL,所示,Focal
来源: https://www.cnblogs.com/mstk/p/15549231.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有