ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

细粒度:NTS-Net论文笔记——Learning to Navigate for Fine-grained Classification

2021-11-18 21:01:15  阅读:458  来源: 互联网

标签:grained 置信度 细粒度 Classification 信息量 区域 模块 Navigator 预测


细粒度:NTS-Net论文笔记——Learning to Navigate for Fine-grained Classification

NTS-Net源码笔记:https://blog.csdn.net/qq_50001789/article/details/121260644

综述

论文题目:《Learning to Navigate for Fine-grained Classification》
会议时间:European Conference on Computer Vision 2018
论文地址:https://openaccess.thecvf.com/content_ECCV_2018/papers/Ze_Yang_Learning_to_Navigate_ECCV_2018_paper.pdf
源码地址(PyTorch版本):https://github.com/yangze0930/NTS-Net
针对领域:细粒度图像分类(FGVC)
关键词:细粒度分类、导航学习、区域检测

主要思想

  如何找到具有区分度的区域对细粒度分类具有重要的意义,而传统的区域检测方法大体可以分为两种:一种是基于人工标注的显著区域进行学习,这样做不仅需要消耗大量的人力资源,而且显著区域的选择还会受到主观因素的影响;另一种是基于无监督学习的区域检测方法,但由模型缺乏保证模型聚焦在正确区域的机制,因此精度通常难以提升。本文中作者提出了一种新的自监督机制来有效地监督信息区域定位的模块,并且不需要额外的标注区域。

  在以往的方法中,定位具有区分度的区域一般被认为是定位信息量大的区域,因此通常利用滑动窗口的思想来实现区域的检测,对原图的区域信息量进行一个评估, 之后挑选出信息量最高的前几个区域,最后再基于该区域做一系列的操作,其中,区域检测模块最关键的就是对原图信息量的评估,目标检测任务中,由于目标区域具有准确的标签,因此网络可以得到很好地优化。但是在细粒度分类中,只有图像级别的标签(即类别标签),没有额外的区域坐标标签(一般考虑基于弱监督学习的算法),因此评估信息量的模块往往得不到很好的优化。

  本文中,作者在区域检测模块(Navigator)的基础上,又增加了监督模块(Teacher),用于优化区域检测的一系列参数,使网络得定位更加准确。该监督模块围绕着一个中心思想:信息量大的区域往往包含更多的语义特征、因此具有更高的预测概率。假设,A为所有区域的集合,I为信息函数,表示信息量的大小,C为置信度函数,表示区域对真实类别的预测概率,有如下条件成立:
对 于 任 意 R 1 , R 2 ∈ A , 如 果 C ( R 1 ) > C ( R 2 ) , 则 I ( R 1 ) > I ( R 2 ) 对于任意R_1,R_2\in A,如果C(R_1)>C(R_2),则I(R_1)>I(R_2) 对于任意R1​,R2​∈A,如果C(R1​)>C(R2​),则I(R1​)>I(R2​)
基于上述条件,作者设计了一个新的排序损失来优化区域的检测模块,使区域信息量与预测概率具有相同的顺序,即鼓励网络去检测真正对最后分类有用的区域,以帮助后续更好地预测图像的类别概率。该方法又可以看作强化学习中的actor-critic(行动者-评价者),Navigator是行动者,用于评估区域信息量,Teacher是评价者,用于评价Navigator评估的区域信息量。

网络结构

网络流程

网络主要流程如下图:

在这里插入图片描述

  作者设计了Navigator模块来近似信息函数I,Teacher模块来近似置信度函数C。首先Navigator对原图的区域做一个评估,评估区域集A中每个区域Ri的信息量,选取前几个区域信息量大并且区域间冗余度低的M个区域,传入Teacher模块,相应的预测其置信度,利用M个区域的置信度与信息量间的排序损失来优化Navigator模块,利用M个区域的置信度与真实标签的交叉熵损失来优化Teacher模块。随着网络逐渐收敛,它将准确地预测真正对分类有用的区域,选取前K个信息量高的区域,这些区域将促进细粒度分类,再将它们与原图一同输入到Scrutinizer中,用于预测最终的类别概率,利用最终的预测概率与真实标签的交叉熵损失来优化Scrutinizer模块。(注意:用于反馈、优化Navigator的是前M个区域,用于预测最终类别的是前K个区域,这里有两个超参数,不要弄混了,并且M最好大于等于K)

Navigator

  Navigator主要是用于对原图区域的信息量做一个评估,并且选出前几个信息量高的区域用于后续的分类预测。作者利用锚点(目标检测中常用的区域检测方法)来预测区域的信息量,对于大小448×448的图像,作者选择具有比例为{48,96,192}和比率为{1:1,3:2,2:3}的锚点进行检测,生成一堆矩形区域,每个区域都有一个表示该区域信息量的分数。

  作者受FPN(特征金字塔)结构的启发,设计了自上到下的结构去检测多尺度区域,利用卷积去计算特征,通过控制卷积核的尺寸与步长大小,来缩小特征图的尺寸,增大感受野。具体结构可见NTS推理过程图(Scrutinizer小节中),不同尺寸的特征图代表了不同的尺度信息,较大特征图中的点对应原图中较小的区域。在论文中,作者采用{48×48, 96×96, 192×192}三种区域比例,对应于特征图尺寸为{14×14, 7×7, 4×4}。(注意,在经过Navigator模块之前,原图已经经过了一次特征提取操作,得到的特征图尺寸为14×14,具体实现过程可见源码笔记)

  在得到每个区域的区域信息量后,作者又利用非极大值抑制(NMS)方法,选取信息量大并且相互间冗余度低的M个区域和K个区域,前M个区域传入Teacher模块,用于对Navigator的预测结果做评判,进一步优化该模块的参数;前K个区域传入Scrutinizer模块,用于预测最终的图像概率。

Teacher

  Teacher近似于映射C:A->[0,1],即评价每个区域的置信度。接收到来自Navigator模块的M个区域之后,将其调整到指定的大小(作者调整到了224×224),再分别将其传入特征提取网络提取特征,最后传入全连接层进行分类预测,取出标签类别的预测概率,作为该区域的置信度C,具体流程如下图(M取3):

在这里插入图片描述

  得到区域置信度后,再将区域置信度C与区域信息量I做排序损失(损失函数的构建可见损失与优化小节),进一步优化Navigator的模块参数。

Scrutinizer

  Scrutinizer主要用于最终的分类预测。接收到来自Navigator模块的K个区域之后,与Teacher模块类似,将其调整到指定的大小(作者调整到了224×224),然后再传入特征提取网络提取特征。之后,再将这K组特征与输入图像的特征连接起来,并将其传入全连接层中,预测最终的类别概率,网络具体的推理图如下:

在这里插入图片描述

损失与优化

Navigation loss:假设预测得到M个窗口,他们的信息量为I,并且由Teacher得到的置信度为C:
I = { I 1 , I 2 , … , I M } , C = { C 1 , C 2 , … , C M } I=\{I_1,I_2,\dots,I_M\},C=\{C_1,C_2,\dots,C_M\} I={I1​,I2​,…,IM​},C={C1​,C2​,…,CM​}
则navigator模块的损失函数可以定义为:
L I ( I , C ) = ∑ ( i , s ) : C i < C s f ( I s − I i ) L_I(I,C)=\sum_{(i,s):C_i<C_s}f(I_s-I_i) LI​(I,C)=(i,s):Ci​<Cs​∑​f(Is​−Ii​)
其中f是非增的函数,当置信度Cs>Ci时,鼓励网络的信息量Is>Ii,从而达到I、C同序的效果,利用排序损失优化Navigator模块。本文中,作者使用函数f(x)=max{1-x,0}来当做损失函数。

Teaching loss:定义Teacher模块的损失函数如下:
L C = − ∑ i = 1 M l o g C ( R i ) − l o g C ( X ) 其 中 , C 是 区 域 的 置 信 度 ( 即 预 测 概 率 ) L_C=-\sum^M_{i=1}logC(R_i)-logC(X)\\ 其中,C是区域的置信度(即预测概率) LC​=−i=1∑M​logC(Ri​)−logC(X)其中,C是区域的置信度(即预测概率)
也就是将所有的窗口与原始图像求交叉熵损失,最后再求和,M+1个预测概率用于优化Teacher模块。

Scrutinizing loss:Navigator模块预测得到的区域中,选取K个区域,再结合原图X,Scrutinizer将所有特征图融合,最后得到一个预测概率:
P = S ( X , R 1 , R 2 , … , R K ) P=S(X,R_1,R_2,\dots,R_K) P=S(X,R1​,R2​,…,RK​)
最后,利用P求交叉熵损失,用于优化Scrutinizer模块:
L S = − l o g P L_S=-logP LS​=−logP
联合损失
L t o t a l = L I + λ ⋅ L S + μ ⋅ L C L_{total}=L_I+λ·L_S+μ·L_C Ltotal​=LI​+λ⋅LS​+μ⋅LC​
其中,λ和μ是超参数,用于控制三个模块损失的占比,作者将其均取1,即三种损失占比相同。

总结

  本文,作者提出了一种新的无需边界框标注的细粒度分类算法。由navigator模块预测区域信息量,Teahcer模块对预测的信息量打分,利用区域的信息量和置信度(分数)之间的排序损失,对navigator进行优化,最后Scrutinizer模块将综合考虑原图特征以及一些信息量大的区域特征,对图片的类别做出最终的判断,三个模块互相合作,互相加强,有效地提高了网络细粒度的分类能力。

以上仅是笔者的个人见解,若有错误,欢迎大家批评指正

标签:grained,置信度,细粒度,Classification,信息量,区域,模块,Navigator,预测
来源: https://blog.csdn.net/qq_50001789/article/details/121409916

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有