InfoGraph:基于互信息最大化的无监督和半监督图表示学习

简介: InfoGraph:基于互信息最大化的无监督和半监督图表示学习

论文标题:InfoGraph: Unsupervised and Semi-supervised Graph-Level


Representation Learning via Mutual Information Maximization


论文链接:https://arxiv.org/abs/1908.01000


论文来源:ICLR 2020


代码地址:https://github.com/fanyun-sun/InfoGraph


之前的相关博客:


MINE:随机变量互信息的估计方法


Deep InfoMax:基于互信息最大化的表示学习


一、概述


本文提出的InfoGraph是一种基于互信息最大化的图对比学习方法,与Deep Graph Infomax(DIM)相比,虽然都是基于互信息最大化的方法,InfoGraph更加侧重于图的表示学习,而DIM偏重于节点的表示学习。


过去的图相关的任务大多是监督学习任务,而图数据的标注通常是困难的和繁琐的,而对于大量的无标注数据未能有效利用。本文提出的InfoGraph侧重于图的无监督表示学习,另外InfoGraph*是在InfoGraph基础上拓展的半监督学习方法。InfoGraph*应用一个类似于Mean-Teacher方法的student-teacher框架,通过让一个encoder学习另一个encoder(最大化两者的互信息)从而在半监督任务上产生了较好的效果。


二、方法


  1. 问题定义


  • 无监督图表示学习

image.png


  1. InfoGraph


首先采用一个encoder获得图的节点表示(patch表示),然后使用readout函数来聚合获得的节点表示以得到图的表示。本文采用的encoder通过聚合邻居节点的特征来获得节点的表示:


image.png

image.png

image.png

                                                   InfoGraph算法


  1. 半监督InfoGraph


一个比较直接的将无监督的方法拓展成半监督的方式是将无监督的损失作为有监督目标的正则项,如下:


image.pngimage.png

image.png

                                       InfoGraph*


这种半监督的InfoGraph方法称为InfoGraph*。注意,InfoGraph*可以看作是student-teacher框架的一个特殊实例。然而,与最近的student-teacher半监督学习方法不同,这些方法使得学生模型的预测与教师模型相似,而InfoGraph*通过在表示的各层上的互信息最大化来实现知识从教师模型向学生模型的转移。


三、实验


本文在MUTAG, PTC, REDDIT-BINARY, REDDIT-MULTI-5K, IMDB-BINARY和IMDB-MULTI一共6个数据集上进行分类任务实验,在QM9数据集上进行半监督实验。实验结果如下:


image.png

                                               实验


image.png

                                            实验

相关文章
|
20天前
|
机器学习/深度学习 网络架构
揭示Transformer重要缺陷!北大提出傅里叶分析神经网络FAN,填补周期性特征建模缺陷
近年来,神经网络在MLP和Transformer等模型上取得显著进展,但在处理周期性特征时存在缺陷。北京大学提出傅里叶分析网络(FAN),基于傅里叶分析建模周期性现象。FAN具有更少的参数、更好的周期性建模能力和广泛的应用范围,在符号公式表示、时间序列预测和语言建模等任务中表现出色。实验表明,FAN能更好地理解周期性特征,超越现有模型。论文链接:https://arxiv.org/pdf/2410.02675.pdf
99 68
|
12天前
|
机器学习/深度学习 资源调度 算法
增强回归模型的可解释性:基于MCMC的混合建模与特征选择方法研究
本文介绍了一种基于正态回归混合模型的通用实现方法,结合MCMC算法,在参数估计的同时实现模型选择和特征选择。该方法突破了正态性假设限制,适用于非正态和非线性数据集,并通过回归混合和特征选择机制提升模型可解释性和性能。实验结果表明,该模型在复杂数据分类和参数估计方面表现出色,错误率仅为6%。此方法在客户群体识别、医疗数据分析等领域具有广泛应用价值。
33 10
增强回归模型的可解释性:基于MCMC的混合建模与特征选择方法研究
|
2天前
|
人工智能 机器人
LeCun 的世界模型初步实现!基于预训练视觉特征,看一眼任务就能零样本规划
纽约大学Gaoyue Zhou等人提出DINO World Model(DINO-WM),利用预训练视觉特征构建世界模型,实现零样本规划。该方法具备离线训练、测试时行为优化和任务无关性三大特性,通过预测未来补丁特征学习离线行为轨迹。实验表明,DINO-WM在迷宫导航、桌面推动等任务中表现出强大的泛化能力,无需依赖专家演示或奖励建模。论文地址:https://arxiv.org/pdf/2411.04983v1。
29 21
|
3月前
|
机器学习/深度学习 算法
贝叶斯线性回归:概率与预测建模的融合
本文探讨了贝叶斯方法在线性回归中的应用,从不确定性角度出发,介绍了如何通过概率来表达变量间关系的不确定性。文章首先回顾了古希腊天文学家使用本轮系统模拟行星运动的历史,并将其与傅里叶级数分解方法类比,强调了近似的重要性。接着,通过高斯分布和贝叶斯推断,详细讲解了线性回归中的不确定性处理方法。文章使用Howell1数据集,展示了如何构建和拟合高斯模型,并通过先验预测模拟验证模型合理性。最后,介绍了多项式回归和样条方法,展示了如何逐步增加模型复杂性以捕捉更细微的数据模式。贝叶斯方法不仅提供了点估计,还提供了完整的后验分布,使得模型更具解释性和鲁棒性。
68 1
贝叶斯线性回归:概率与预测建模的融合
|
3月前
|
机器学习/深度学习 调度 知识图谱
TimeDART:基于扩散自回归Transformer 的自监督时间序列预测方法
近年来,深度神经网络成为时间序列预测的主流方法。自监督学习通过从未标记数据中学习,能够捕获时间序列的长期依赖和局部特征。TimeDART结合扩散模型和自回归建模,创新性地解决了时间序列预测中的关键挑战,在多个数据集上取得了最优性能,展示了强大的泛化能力。
123 0
TimeDART:基于扩散自回归Transformer 的自监督时间序列预测方法
|
8月前
|
算法
有监督学习的模型评估和选择
有监督学习的模型评估和选择
|
机器学习/深度学习 算法 计算机视觉
用于语义图像分割的弱监督和半监督学习:弱监督期望最大化方法
这篇论文只有图像级标签或边界框标签作为弱/半监督学习的输入。使用期望最大化(EM)方法,用于弱/半监督下的语义分割模型训练。
178 0
|
算法
评价模型:熵权法
评价模型:熵权法
222 0
|
机器学习/深度学习 存储 自然语言处理
重新审视Prompt优化问题,预测偏差让语言模型上下文学习更强
重新审视Prompt优化问题,预测偏差让语言模型上下文学习更强
156 0
|
数据挖掘 索引 Python
Python实现固定效应回归模型实现因果关系推断(二)
Python实现固定效应回归模型实现因果关系推断(二)
982 1
Python实现固定效应回归模型实现因果关系推断(二)