MPNN:消息传递神经网络

简介: MPNN:消息传递神经网络

论文标题:Neural Message Passing for Quantum Chemistry


论文链接:https://arxiv.org/abs/1704.01212


论文来源:ICML 2017


一、概述


近年来,随着量子化学计算和分子动力学模拟等实验的展开产生了巨大的数据量,大多数经典的机器学习技术都无法有效利用目前的数据。而原子系统的对称性表明,能够应用于网络图中的神经网络也能够应用于分子模型。所以,找到一个更加强大的模型来解决目前的化学任务可以等价于找到一个适用于网络图的模型。


本文的目标是证明:能够应用于化学预测任务的模型可以直接从分子图中学习到分子的特征,并且不受到图同构的影响。本文提出的MPNN是一种用于图上监督学习的框架,能够概括之前一些文献提出的一些方法,并且能够按照这个框架提出一些新的架构。本文提出的新的MPNN变种基于实际的应用场景:预测有机小分子的量子力学性质。并且,作者希望以后提出的新的MPNN变种能够从实际的应用出发,从实际应用中获得启发。


本文以QM9作为benchmark数据集,这个数据集由130k个分子组成,每个分子有13个性质,这些性质是通过一种计算昂贵的量子力学模拟方法(DFT)近似生成的,相当于13个回归任务。这些任务似乎代表了许多重要的化学预测问题,并且目前对许多现有方法来说是困难的。


本文提出的模型的性能度量采用两种形式:


①DFT近似的平均估计误差;


②化学界已经确立的目标误差,称为“化学精度”。


二、消息传递神经网络


WHL`PTJ_NXM9@L6MR_83R$R.png


  1. Convolutional Networks for Learning Molecular Fingerprints, Duvenaud et al. (2015)


本文提出的模型采用的消息函数是:


E~~Z1[3}E2@RH)73C6CFGE7.png


  1. Gated Graph Neural Networks (GG-NN), Li et al.(2016)


消息函数为:


20220608075801.png


  1. Interaction Networks, Battaglia et al. (2016)


L589J1@)HM24B[ZOO4SY0`4.png


  1. Molecular Graph Convolutions, Kearnes et al. (2016)


这个模型与之前的MPNNs稍微有一些不同,是因为它引入了边的表示FB[D9B16B[VPNY$68MMO`)W.png,并且会在消息传递阶段进行更新。消息函数为:


)DRSIN}G4S)44QZUL@29YIH.png


  1. Deep Tensor Neural Networks, Sch¨utt et al. (2017)


消息函数为:


TEV5AJN1EXOKVEL~@E56JO9.png


  1. Laplacian Based Methods, Bruna et al. (2013); Deffer�rard et al. (2016); Kipf & Welling (2016)


8篇文献中有3篇属于这一类。其中两篇采用消息函数:


XY}_XB59U$R0S9S_[H`H`JY.png


三、MPNN变种


20220608080033.png


  1. 消息函数

IG75WFXG05ZXDOT)6V{6O6H.png


  1. 虚拟图形元素


本文探索了两种方式来改变模型中信息的传递。第一种是为未连接的节点对添加一个单独的“虚拟”边类型。这一处理可以在预处理时实现,效果是可以使得在传播过程中让信息传播更远的距离。

另一种方式是添加一个“master”节点,让它通过一种特殊类型的边与所有节点连接。“master”节点充当全局暂存空间,每个节点在消息传递的每个步骤中都对其进行读写操作。另外“master”节点拥有单独的节点维度`[ZZE_{NJENZ~1Q(O4L_1_F.png,以及内部更新函数(实验中是GRU)的单独权重。这同样可以使得在传播过程中让信息传播更远的距离。这样可以允许模型有更大的容量,同时也不会过多的损失效率,其复杂度为[{Y$O~~BOSMEPK[VIP}U0P6.png


  1. 读出函数


XKQY{]1O~{S5_70}D6PJC08.png


  1. Multiple Towers


RX7~O}7ZDXI7ZYDI81O(2XB.png


四、输入表示


一个分子有很多特征,如下图所示:


$}G}7$G)%LV6]$GQE5~8YY6.png

                                                分子特征


边的特征包括化学键与距离,因此有以下三种表示方式:


①化学图(Chemical Graph):在不考虑距离的情况下,邻接矩阵的值是离散的键类型:单键,双键,三键或芳香键;


@IFMCFLEF4V~{KV78(TLP$T.png


③原始距离特征(Raw distance feature):也可以同时考虑距离和化学键的特征,这时每条边都有自己的特征向量,此时邻接矩阵的每个实例都是一个 5 维向量,第一维是距离,其余4维是一个独热向量,代表4种不同的化学键。


五、实验


实验中对比了本文提出的方法与现有的方法:


1PCSF81{EFUF_U0I@EV_%28.png

                                                    对比


以下为不考虑空间信息的结果:


 CLQ%VQOWLI{BPZ}M{8)C}1C.png

                                             不考虑空间信息


以下为一些消融实验:


9U}G3`C)${WTY3%@7_I6)QF.png

                                                 消融实验


具体实验设置参照原文。

相关文章
|
机器学习/深度学习 设计模式 编译器
图神经网络通用框架 —— MPNN消息传递神经网络
图神经网络通用框架 —— MPNN消息传递神经网络
594 0
图神经网络通用框架 —— MPNN消息传递神经网络
|
6月前
|
机器学习/深度学习 自然语言处理 数据可视化
数据代码分享|PYTHON用NLP自然语言处理LSTM神经网络TWITTER推特灾难文本数据、词云可视化
数据代码分享|PYTHON用NLP自然语言处理LSTM神经网络TWITTER推特灾难文本数据、词云可视化
|
5月前
|
机器学习/深度学习 PyTorch 算法框架/工具
【从零开始学习深度学习】26.卷积神经网络之AlexNet模型介绍及其Pytorch实现【含完整代码】
【从零开始学习深度学习】26.卷积神经网络之AlexNet模型介绍及其Pytorch实现【含完整代码】
|
5月前
|
机器学习/深度学习 PyTorch 算法框架/工具
【从零开始学习深度学习】28.卷积神经网络之NiN模型介绍及其Pytorch实现【含完整代码】
【从零开始学习深度学习】28.卷积神经网络之NiN模型介绍及其Pytorch实现【含完整代码】
|
3月前
|
机器学习/深度学习 PyTorch 算法框架/工具
PyTorch代码实现神经网络
这段代码示例展示了如何在PyTorch中构建一个基础的卷积神经网络(CNN)。该网络包括两个卷积层,分别用于提取图像特征,每个卷积层后跟一个池化层以降低空间维度;之后是三个全连接层,用于分类输出。此结构适用于图像识别任务,并可根据具体应用调整参数与层数。
|
3月前
|
机器学习/深度学习 数据可视化 Python
如何可视化神经网络的神经元节点之间的连接?附有Python预处理代码
该博客展示了如何通过Python预处理神经网络权重矩阵并将其导出为表格,然后使用Chiplot网站来可视化神经网络的神经元节点之间的连接。
53 0
如何可视化神经网络的神经元节点之间的连接?附有Python预处理代码
|
3月前
|
机器学习/深度学习 Linux TensorFlow
【Tensorflow+keras】用代码给神经网络结构绘图
文章提供了使用TensorFlow和Keras来绘制神经网络结构图的方法,并给出了具体的代码示例。
54 0
|
3月前
|
机器学习/深度学习 自然语言处理 TensorFlow
|
4月前
|
机器学习/深度学习 编解码 数据可视化
图神经网络版本的Kolmogorov Arnold(KAN)代码实现和效果对比
目前我们看到有很多使用KAN替代MLP的实验,但是目前来说对于图神经网络来说还没有类似的实验,今天我们就来使用KAN创建一个图神经网络Graph Kolmogorov Arnold(GKAN),来测试下KAN是否可以在图神经网络方面有所作为。
180 0
|
6月前
|
机器学习/深度学习 自然语言处理 搜索推荐
【传知代码】图神经网络长对话理解-论文复现
在ACL2023会议上发表的论文《使用带有辅助跨模态交互的关系时态图神经网络进行对话理解》提出了一种新方法,名为correct,用于多模态情感识别。correct框架通过全局和局部上下文信息捕捉对话情感,同时有效处理跨模态交互和时间依赖。模型利用图神经网络结构,通过构建图来表示对话中的交互和时间关系,提高了情感预测的准确性。在IEMOCAP和CMU-MOSEI数据集上的实验结果证明了correct的有效性。源码和更多细节可在文章链接提供的附件中获取。
【传知代码】图神经网络长对话理解-论文复现

热门文章

最新文章