ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

Optimal Transport for knowledge distillation

2021-10-15 14:05:28  阅读:257  来源: 互联网

标签:Multi knowledge distillation DA 分类器 Source Optimal OT teacher


OT 的应用场景往往是样本是在Euclidean上,而限制了其在structural data(graph, trees, time series)上的应用,或者跨space上的应用,这些统称为incomparable space情况。

Wassertein distance作为比较概率分布的有用工具,得益于两点:1.它是距离;2. weak convergence of the probability measure.那么可以用样本的pm代替真实的pm.

21-UAI-MOST Multi-Source Domain Adaptation via Optimal Transport for Student-Teacher Learning

摘要:
Multi-Source DA比传统的DA更具有挑战性,因为知识要从几个源于转移到目标域。为此,我们在本文中提出了一个使用OT和模仿学习理论的Multi-Source DA新模型。更具体地说,我们的方法由两个合作代理组成:一个teacher分类器,一个student分类器。teacher分类器是一个 综合的专家,它利用理论上可以保证的领域专家的知识来完美地处理源实例,而student分类器在目标领域中试图模仿teacher分类器在源领域中的行为。我们基于OT开发的严格理论使这种跨域模仿成为可能,同时也有助于缓解data shift和label shift。
介绍:
teacher是在labeled的源样本下完美学习的domain experts的组合,student目标是通过模仿teacher的预测来对unlabeled目标样本进行预测。

标签:Multi,knowledge,distillation,DA,分类器,Source,Optimal,OT,teacher
来源: https://blog.csdn.net/BLvren_/article/details/120739272

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有