ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

基于拓扑的增量学习Topology Preserving Class-Incremental learning论文详解ECCV2020

2021-05-10 22:02:44  阅读:395  来源: 互联网

标签:TPL Graph Preserving EHG Incremental learning 增量 CNN


 

ECCV 2020

论文地址:https://doi.org/10.1007/978-3-030-58529-7_16

代码地址:论文中称,代码 will be released

 

西交大发表的。单看标题推测是运用Graph和拓扑学的知识来进行增量学习。基于正则化的增量学习方法。近两年很多论文都有类似想法,就是将CNN与Graph相结合来进行增量学习,用CNN提取模型特征,获得embedding信息,Graph网络用于学习特征之间的拓扑关系。

CVPR2020 ,FSCIL Few-shot Class Incremental Learning。将NG网络运用到增量学习之中。

ECCV2020,TPCIL,本篇,Topology Preserving Class-Incremental learning,同样的框架,即CNN+拓扑结构,部分内容换了一个写法。

CVPR2021与本篇非常类似,Few-Shot Incremental Learning with Continually Evolved Classifiers,南洋理工大学提出,也是运用Graph的知识,将GAT(Graph Attention Network)用于增量学习。

近期不少将Graph模型用于增量学习的,效果都不错,均取得了SOTA结果。并且Graph在增量的运用较新,加入一定的可解释性,很好发论文。

目录

1.贡献点

2.方法

2.1总体方法

2.2 EHG(Elastic Hebbian Graph)

3.实验

4. 结论


1.贡献点

本文提出了Topology Preserving Class Incremental Learning(TPCIL)框架,

运用 Elastic Hebbian Graph (EHG)来进行feature域的建模

运用Topology-preserving loss(TPL)促进EHG的学习。

 

直观来看,TPL对于学习的促进:

经过40个epoch的训练,TPCIL比LUCIR样本的feature获得了更高的收敛程度。

 

2.方法

2.1总体方法

本文总体框架较为简单,相当于一个CNN加一个图模型G,G就是本文贡献点的Graph模型EHG(Elastic Hebbian Graph). Loss运用交叉熵和TPL相结合,TPL(Topology-Preserving)即用于训练G的loss,

 

 

交叉熵CE用于根据task t的样本X训练CNN参数和图模型G,TPL用于训练G和CNN。

对于EHG和CHL的作用粗略如下图所示:

  • a 表示N个点的初始化的EHG,
  • b 通过CHL,图形成了节点与节点之间的连接关系
  • c 对CNN进行finetune,改变了特征空间上的点的位置
  • d 但是TPL和EHG依然保持着之前的拓扑关系
  • e 学习新类,则EHG会增加新的拓扑节点与链接关系

 

2.2 EHG(Elastic Hebbian Graph)

本文为了建模方便,将feture space的特征转化到cosine空间。上划线表示正则化操作,转化为单位向量。EHG的公式如下:

此公式跟FSCIL的公式(Few-Shot Class-Incremental Learning,CVPR2020的公式一模一样。)意义就是新样本到来之后,用新样本更新所有的节点,越近的节点更新越多,越远的节点更新越少。文中涉及一些graph模型的推导,因此对graph不太熟悉,所以我在此将其跳过,只留下重点的结论。

文中所提的TPL(Topology-preserving Loss)经过推导后如下:

其中

sij可以理解为样本i和样本j经过模型特征提取后在特征空间的余弦距离。sij表示初始的余弦距离,sij表示增量任务t到来之后的余弦距离。TPL可以粗略的理解为,旧的ij之间的关系和新的ij之间的关系尽可能接近。从而保持拓扑结构的稳定。

因为博主没有其他公式推导的部分,对这个Graph网络了解也不多,所以公式的物理意义方面理解的不透彻。

3.实验

可见本文方法优于其他同类的方法,仅次于联合训练。

4. 结论

思路:CNN+Graph模型

CNN提取特征,Graph模型提取模型之间的拓扑关系。

此思路作者发过一篇CVPR2020,经过变换又投了ICCV2020.

CVPR2020 ,FSCIL Few-shot Class Incremental Learning。将NG网络运用到增量学习之中。

ECCV2020,TPCIL,本篇,Topology Preserving Class-Incremental learning,同样的框架,即CNN+拓扑结构,部分内容换了一个写法。

CVPR2021与本篇非常类似,Few-Shot Incremental Learning with Continually Evolved Classifiers,南洋理工大学提出,也是运用Graph的知识,将GAT(Graph Attention Network)用于增量学习。

近期不少将Graph模型用于增量学习的,效果都不错,均取得了SOTA结果。并且Graph在增量的运用较新,加入一定的可解释性,很好发论文。

 

 

标签:TPL,Graph,Preserving,EHG,Incremental,learning,增量,CNN
来源: https://blog.csdn.net/weixin_36474809/article/details/116612061

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有