ICode9

精准搜索请尝试: 精确搜索
首页 > 其他分享> 文章详细

自监督-SelfGNN: Self-supervised Graph Neural Networks without explicit negative sampling

2021-11-19 12:03:43  阅读:236  来源: 互联网

标签:phi Neural Graph Self prediction encoder pageRank theta 数据


自监督-SelfGNN: Self-supervised Graph Neural Networks without explicit negative sampling

标签:自监督、图神经网络、对比学习

动机

  • 在真实世界中许多数据大部分是有没有标签的,而打上标签的是需要很大花费的

  • 现存的对比学习框架关键主要是对数据加强并生成正负样本对,而最近在 CV 中提出了隐式对比学习,没有明确需要负样本对,而在 GNN 中目前还没有进行探索

贡献

  • 主要提出了隐式的对比学习,没有明确需要负样本对,其主要参考的是 Siamese network 设计方式进行对图神经的设计,大大减少了负样本对的设计
  • 介绍了四种特征增强方式和一种拓扑增强方式

思想

核心

两个方面---数据加强(分别在图结构和属性方面做了增强)和网络设计(模仿 Siamese network 设计方式,目的丢弃负样本)

框架

对于一个原图 \(G\),我们分别进行数据增强得到两个加强图 \(G_1, G_2\),分别利用两个 GNN encoder (\(f_{\theta}、f_{\phi}\) 其编码器的参数分别是 \(\theta、\phi\))进行对两个增强图数据进行编码。并在 \(f_{\theta}\) 在应用一个 prediction block \(g_{\theta}\)(MLP ),对于 \({\theta}\) 的更行主要用到对比损失函数,对比的经过 prediction block得到的 \(X_1\) 和 经过编码器 \(f_{\phi}\) 得到的 \(X_2\)。而对于 \(\phi\) 主要是通过 \(\theta\) 进行 EMA(指数移动平均)进行更新。(假设左边部分为 student network,用 s-n 表示,右边部分为 teacher network,用 t-n 表示)

数据增强

Topology augmentation

​ 拓扑数据扩充的目的是通过利用图结构的属性来揭示原始图的不同拓扑视图,在本文中,主要引用了两种 pageRank 算法,一种是 pageRank 基于随机游走的 pageRank-PPR 和 热核 (head-kernel) pageRank-HK, 并且提出了第三种基于卡兹索引的高阶网络构建技术

pageRank-PPR:\(H^{PPR} = \alpha(I - (1 - \alpha) \widetilde{A})^{-1}\)

pageRank-HK:\(H^{HK} = exp(tAD^{-1}-t)\)

pageRank-KATZ:\(H^{katz} = (I-\beta\widetilde{A})\beta \widetilde{A}\)

feature augmentation

  • split (切分):将特征进行切分,在数据增强成为两个视图时,将特征分成两部分分别分到两个视图中
  • Stadardize (标准化):将特征进行放缩,\(X' = (\frac{X^T-\bar{x}}{s})\), \(\bar{x}\) 和 \(s\) 分别时特征的平均值和方差
  • Local degree Profile (图度分布):在一些没有特征的图中我们根据度分布构造 \(5\) 个统计量为节点的特征
  • paste (扩充):利用度分布的 \(5\) 个统计量对原本节点的属性进行扩充

encoder and prediction

encoder

上图为一个 encoder \(f\) , 其主要目的是为了增广后的图进行编码,用于下游任务(并行 GNN)

prediction

prediction 或者是一个 projection head,其主要对 encoder 后的进行一个映射

在这个架构中主要有两个不同点,一个是 s-n 中有投影头,而 t-n 中没有投影头,对于 s-n 来说,投影头相当于大脑,去学习 t-n 中对图的表示 \(g(X_1) ≈ X_2\),另一个就是对于编码器参数的更新,s-n 中的参数 \(\theta\) 使用最小化 Loss function 进行 BP 更新参数 \(\theta\) ,而 t-n 中对于并没有利用 BP 更新参数 \(\phi\) ,而是用 s_n 的参数 \(\theta\) 做一个 EMA 去更新 t-n中的参数 \(\phi\)

Loss function and EMA update

Loss function

\[L_{\theta} = 2 - 2 · \frac{<g_{\theta}(X_1),X_2>}{||g_{\theta}(X_1) ||_F ·||(X_2)||_F} \]

EMA update

\[\phi = \tau\phi + (1 - \tau)\theta \]

实验

在 7 个数据集中进行节点分类任务,对比结果如上图。前三个引文数据网络数据之所以比较好是因为标签部分少,相对于原始模型。本文提出的自监督方法 Self-GNN 更好,而后面四个数据集不好的原因是对于训练集部分都有标签,相当于完全监督学习,所以对于本文方法没有原始模型的好。

标签:phi,Neural,Graph,Self,prediction,encoder,pageRank,theta,数据
来源: https://www.cnblogs.com/owoRuch/p/15576501.html

本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享;
2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关;
3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关;
4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除;
5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。

专注分享技术,共同学习,共同进步。侵权联系[81616952@qq.com]

Copyright (C)ICode9.com, All Rights Reserved.

ICode9版权所有