Deep Graph Infomax:互信息最大化的无监督图对比学习

简介: Deep Graph Infomax:互信息最大化的无监督图对比学习

论文标题:DEEP GRAPH INFOMAX


论文链接:https://arxiv.org/abs/1809.10341


论文来源:ICLR 2019


之前的相关博客:


MINE:随机变量互信息的估计方法


Deep InfoMax:基于互信息最大化的表示学习


一、概述


目前主流的无监督图表示学习方法主要依赖于基于随机游走的,然而这一类的方法受到诸多限制。最显著的是,已知的随机游走目标过分强调接近性信息,而牺牲了结构信息,并且方法的效果高度依赖于超参数的选择。本文提出的方法基于互信息估计,依赖于训练一个统计网络作为分类器来区分开组两个随机变量联合分布和边缘分布乘积的样本。本文的方法从Deep InfoMax改进而来,称为Deep Graph Infomax,可以应用在直推式和归纳式的图表示学习任务中。


二、方法


  1. 无监督图表示学习


image.png


  1. 局部-全局互信息最大化


image.png

image.png


所有patch表示都被驱动保持与图表示的互信息,这有助于保持patch层级的相似性,举例来说,图中距离较远但是有相同结构特征的节点之间可以建立联系。


  1. 算法


假设在单图情况下,Deep Graph Infomax的算法流程如下:


image.png


下图以一种直观的方式展示了算法的流程:


image.png

                                                       算法


三、实验


本文对直推式(transductive)和归纳式(inductive)任务都进行了实验,其中既包括单图配置,也包括多图配置,并且主要进行分类任务实验。在实验中DGI在完全无监督的情况下学习表示,然后使用简单分类器(逻辑回归)进行微调。


  1. 数据集


下表展示了本次实验的数据集配置情况:


image.png

                                                   数据集


  1. 实验设置


对于不同类型(直推式、大图归纳式以及多图归纳式)的实验,采用不同的encoder和破坏函数。


  • 直推式学习


encoder采用一个一层GCN:


image.png


  • 大图上的归纳式学习(只有Reddit数据集)


由于GCN的卷积核严重依赖于固定和已知的邻接矩阵,所以在当前配置下采用mean-pooling传播规则的GraphSAGE-GCN:


image.png


image.png


破坏函数与直推式配置类似,但是将minibatch内每个节点采样得到的子图看做独立的图进行破坏(也就是按照行单独打乱这些子图的特征)。这很可能使得中心节点在负样本图中的特征被替换为采样邻居的特征,从而增加了负样本的多样性。最后在中心节点中得到的patch表示被输入给discriminator。


上述过程如下图所示:


image.png

                                           框架


  • 多图上的归纳式学习(只有PPI数据集)


对于PPI数据集,受以前成功的监督架构的启发,该配置下的encoder如下:


image.png


负样本就是训练集中的其他图,为了增强负样本的多样性,也会对采样到的负样本图的特征进行dropout。另外实验发现,在将学习到的表示提供给逻辑回归模型之前,将它们标准化是有益的。


  • Readout, discriminator等


不同的数据集配置采用同样的readout函数和discriminator架构。


Readout函数采用简单的节点特征平均:


image.png


另外所有模型使用Glorot initialization初始化,其他具体实验设置参看原文。


  1. 实验结果


下图展示了在多个数据集上的实验结果:


image.png

                                                 实验


另外使用t-SNE进行了特征的可视化:


image.png

                                                  t-SNE        

相关文章
|
8月前
|
机器学习/深度学习 人工智能 自然语言处理
ICLR 2024 Spotlight:训练一个图神经网络即可解决图领域所有分类问题!
【2月更文挑战第17天】ICLR 2024 Spotlight:训练一个图神经网络即可解决图领域所有分类问题!
225 2
ICLR 2024 Spotlight:训练一个图神经网络即可解决图领域所有分类问题!
|
1月前
|
机器学习/深度学习 人工智能 算法
深入解析图神经网络:Graph Transformer的算法基础与工程实践
Graph Transformer是一种结合了Transformer自注意力机制与图神经网络(GNNs)特点的神经网络模型,专为处理图结构数据而设计。它通过改进的数据表示方法、自注意力机制、拉普拉斯位置编码、消息传递与聚合机制等核心技术,实现了对图中节点间关系信息的高效处理及长程依赖关系的捕捉,显著提升了图相关任务的性能。本文详细解析了Graph Transformer的技术原理、实现细节及应用场景,并通过图书推荐系统的实例,展示了其在实际问题解决中的强大能力。
219 30
|
8月前
|
机器学习/深度学习 存储 PyTorch
使用pytorch构建图卷积网络预测化学分子性质
在本文中,我们将通过化学的视角探索图卷积网络,我们将尝试将网络的特征与自然科学中的传统模型进行比较,并思考为什么它的工作效果要比传统的方法好。
96 0
|
8月前
|
机器学习/深度学习 自然语言处理 算法
【论文精读】COLING 2022 -带有对偶关系图注意力网络的事件检测模型
【论文精读】COLING 2022 -带有对偶关系图注意力网络的事件检测模型
|
机器学习/深度学习 存储 算法
优于GNN嵌入基线,阿尔伯塔大学等用RL做图关系推理:关系预测任务新SOTA
优于GNN嵌入基线,阿尔伯塔大学等用RL做图关系推理:关系预测任务新SOTA
131 0
|
机器学习/深度学习 算法
深度学习相关概念:计算图与反向传播
在深度学习分类问题中,反向传播是一个重要的环节,它决定着模型是否能被训练,反向传播相当于一个负反馈,当一件事做完之后,会寻找当前事件做的不好的问题,进行回传,当下次在做的时候,进行优化。
218 0
|
机器学习/深度学习 人工智能 算法
【Pytorch神经网络理论篇】 23 对抗神经网络:概述流程 + WGAN模型 + WGAN-gp模型 + 条件GAN + WGAN-div + W散度
GAN的原理与条件变分自编码神经网络的原理一样。这种做法可以理解为给GAN增加一个条件,让网络学习图片分布时加入标签因素,这样可以按照标签的数值来生成指定的图片。
764 0
|
机器学习/深度学习 自然语言处理 算法
深度学习与CV教程(18) | 深度强化学习 (梯度策略,Actor-Critic,DDPG,A3C)
本文讲解了 Policy Gradient,结合policy-based 和 value-based 的 Actor-Critic 方法,以及在 Actor-Critic 基础上的 DDPG、A3C方法【对应 CS231n Lecture 14】
18073 21
深度学习与CV教程(18) | 深度强化学习 (梯度策略,Actor-Critic,DDPG,A3C)
|
机器学习/深度学习 数据可视化 算法框架/工具
使用Deep Replay可视化神经网络学习的过程
使用Deep Replay可视化神经网络学习的过程
100 0