【博士每天一篇文献-综述】Communication dynamics in complex brain networks

简介: 本文综述了复杂脑网络中的通信动态,提出了一个将通信动态视为结构连接和功能连接之间必要联系的概念框架,探讨了结构网络的局部和全局拓扑属性如何支持网络通信模式,以及网络拓扑与动态模型之间的相互作用如何提供对大脑信息转换和处理机制的额外洞察。

阅读时间:2023-11-30

1 介绍

年份:2018
作者:Andrea Avena-Koenigsberger,印第安纳大学心理与脑科学系;Bratislav Misic
蒙特利尔神经学研究所,麦吉尔大学
期刊: Nature reviews neuroscience
引用量:688
这篇论文主要讨论的是复杂脑网络中的通信动态。文章调查了最近关于大脑网络的研究,阐明了神经信息处理和计算的网络基础。作者提出了一个概念框架,将通信动态视为连接结构和功能连接两个经验领域之间的必要联系。文中考虑了不同结构网络的局部和全局拓扑属性如何支持网络通信模式,以及网络拓扑与动态模型之间的相互作用如何提供额外的洞察和限制。论文提出通信动态可能作为有效连接的潜在生成模型,并可以揭示大脑网络转换和处理信息的机制。作者探讨了图论以及动力学系统模型和模拟对理解通信动态的关键贡献,并研究了网络拓扑概念可以预测有关网络通信模式的信息。最后,作者展望了随着更先进的计算和理论工具的发展以及越来越多的经验数据可用时,可能产生的未来洞察。

2 创新点

(1)提供了一个将沟通动态视为结构连接性和功能连接性之间必要联系的概念框架。这种框架考虑了结构网络的不同局部和全局拓扑属性如何支持网络沟通的潜在模式。
(2)通过研究网络拓扑和动态模型之间的交互如何提供额外的洞察和约束,进一步深入了解了沟通动态的潜在生成模型以及大脑网络信息转换和处理机制。
(3)探讨了图论以及动态系统模型和模拟对理解沟通动态的关键贡献,并探讨了网络拓扑概念对网络沟通模式的预测能力。
(4)将沟通动态置于大脑网络结构连接性和功能连接性这两个经常研究的领域的背景下,综合考虑了不同模型对大脑功能的贡献。
(5)展望了更先进的计算和理论工具的发展以及越来越多的实证数据对未来洞见可能产生的影响。

3 关键知识点

(1)结构连接和功能连接概念
结构连接(结构连接组)反映了神经元元素之间的解剖(物理)关系,即它们的突触连接或区域间的投射(“连线图”)。而功能连接描述了从单个神经元素记录的神经生理信号(时间序列)之间的一组成对统计依赖关系。
截屏2024-03-15 上午11.39.26.png
图左一为结构链接,中间为信号传播路线,右一功能连接
(2)神经网络的结构拓扑重要意义
大脑网络的边可以是有向或无向的,加权或未加权的,取决于构建网络的经验数据的性质。研究神经网络的交流动态对于理解大脑对信息整合、分离、损伤恢复和功能需求自组织能力等方面具有重要意义。神经网络的结构拓扑对交流模式起着关键作用,而网络拓扑必须结合交流机制进行研究。通过考虑网络拓扑如何影响神经元之间的相互作用,可以解释组成元素之间的统计关系的出现。
(3)大脑的拓扑结构特征
脑网络拓扑结构具有异质性的度和强度分布、短路径长度和高聚类度、多尺度模块化组织和高度连接的核心节点等特征。
(4)拓扑距离的影响
最短路径的长度被视为节点之间的拓扑距离。因此,最短路径长度被认为是信号传输的便捷性指标。较长的路径更容易受到噪声干扰,更可能涉及更多的不同处理步骤,产生较长的传输延迟,且在能量(代谢)上更昂贵。典型的小世界网络,大脑具有接近最小的路径长度。最短路径作为大脑主要通信媒介的证据,研究表明,大脑网络具有接近最小路径长度,这能确保可靠高效的通信。
(5)Percolation
Percolation是指在复杂网络中传播信号或信息的过程。在这种过程中,信息通过网络中的连接传播,类似于液体在多孔介质中传播的过程。Percolation过程可以描述为信息在网络中的扩散,其中节点之间的交互和连接影响信号的传播。在神经网络的上下文中,这种信息传播可以是神经元之间的信号传递或信息传递的模拟。通过percolation,节点可以通过与邻居进行信号交互来激活,从而形成网络中的动态通信过程。通过percolation过程,可以更好地理解复杂网络中的信息传播和通信动态。
(6)大脑中的距离
在大脑中,距离是一个多方面的概念。大脑存在于三维空间中,这定义了神经元元素及其相互连接的空间布局。距离可以通过空间位置(欧几里得距离)或结构网络中的投影长度来计算,这涉及到它们的空间轨迹和曲率。此外,拓扑距离也是一个重要的维度,在神经系统中,结构性边缘权重表示连接的强度和可靠性,信号更可能通过更强的连接来传输。尽管最常用的转换函数是边缘强度的倒数,但这会导致边缘距离分布严重偏斜。另外,脑网络的半度量特性对通信建模有重要影响,既支持高冗余性和信息共享,又会导致长距离连接的低估。
(7)通信效率
通信效率是指网络传输信息的能力,它反映了网络在传递信息时的整体效率。全局效率是网络能够以并行方式传输信息的能力的平均值,但实际上通信效率需要考虑更多的约束条件,如拓扑结构和动态模型的影响。在神经系统中,不同的局部和全局拓扑属性会影响通信的模式,而网络的拓扑结构与动态模型之间的相互作用可以提供更多的见解和约束。另外,并非所有节点对之间的信息传递能力都是相同的,而且不同的拓扑结构可能会影响信息在网络中的传播和集成。因此,通信效率是网络结构中一个重要的概念,可以帮助我们理解神经系统中信息的传递和加工方式。
(8)评价通信效率的指标
神经网络中神经元之间的通信方式受到结构连接、路径长度、冗余性和网络拓扑结构等多方面因素的影响。评价通信效率的指标包括全局效率、扩散效率和路由效率。

  • 全局效率是指网络中所有节点之间最短路径长度的倒数的平均值,用于衡量网络传输信息的能力。然而,这一指标仅能提供网络传输信息的上限,并未考虑拥塞或传输延迟等因素,因此并不能完全反映通信效率的真实情况。
  • 扩散效率则是指在扩散传输模型下网络的整体扩散效率的倒数,能更好地捕捉网络的整体集成能力。平均第一通行时间定义了两个通过扩散进行通信的节点之间的拓扑距离,平均第一通行时间的倒数是一个全局的扩散效率评价指标。
  • 路由效率是指网络节点之间通过多条路径进行通信的能力,而不仅依赖于最短路径。

(9)神经系统的模块化
神经系统的模块化结构旨在在模块内和模块间实现信息的高效集成和隔离。可实现的方法有最小化布线强调稀疏性,惩罚长距离通信。分层模块化组织结构作为多种问题的最优成本有效解决方案,如促进功能整合和分离的共存,以及实现演变性和适应性,同时最小化布线和能量消耗。
模块化结构:最大化路由效率但最小化扩散效率,因为模块内链接与模块间链接的比率较高,降低了扩散信号逃逸模块的概率。
具有高度连接的核心的网络:支持高度扩散信号的传输,从而最大程度地支持扩散效率。最大化路由和扩散效率。
中心化的星状拓扑与分散的模块化拓扑分别促进扩散和路由效率。大规模脑网络最小化了扩散效率,说明脑网络的拓扑结构并不适合通过扩散进行信号全局传播。
(10)小世界网络
通过演化设计一种同时优化扩散效率和路由效率的小世界拓扑网络,形成了可能网络配置的效率形态空间,其中不同区域代表不同网络配置的存在。这些结果揭示了网络结构对信息传输效率的重要影响。

4 思考

(1)论文留下的思考
寻找网络拓扑与通信动态之间的联系,并使用合适的实验策略来识别大脑中使用的通信方案
对大脑网络如何最小化变分自由能以及信息传递和局部计算如何协调
(2)自己的思考

  • 作者的思考维度非常高,以宏观的角度,分析了当前复杂脑网络的所有研究进展和结论。详细探讨了大脑通信中的结构连接性和功能连接性的关系与发展。
  • Nature review期刊的排版看起来太难受了,排版让论文看起来乱糟糟的,重新梳理了一下目录结构。
  • 这是2018年发表的论文,2023年有最新,对于方法介绍得更系统的论文《Brain network communication: concepts, models and applications》中文翻译:https://swarma.org/?p=44524

截屏2024-03-15 下午6.34.32.png

目录
相关文章
|
1月前
|
机器学习/深度学习
【文献学习】Exploring Deep Complex Networks for Complex Spectrogram Enhancement
介绍了一种用于语音增强的复数深度神经网络(CDNN),它通过复数值的短时傅立叶变换(STFT)映射到干净的STFT,并提出了参数整流线性单位(PReLU)的复数扩展,实验结果表明CDNN在语音增强方面相对于实值深层神经网络(DNN)具有更好的性能。
34 2
【文献学习】Exploring Deep Complex Networks for Complex Spectrogram Enhancement
|
1月前
|
数据可视化 算法 Go
【博士每天一篇文献-实验】Exploring the Morphospace of Communication Efficiency in Complex Networks
这篇论文探讨了复杂网络中不同拓扑结构下的通信效率,并使用"效率形态空间"来分析网络拓扑与效率度量之间的关系,得出结论表明通信效率与网络结构紧密相关。
34 3
|
1月前
|
机器学习/深度学习 网络协议 PyTorch
【文献学习】DCCRN: Deep Complex Convolution Recurrent Network for Phase-Aware Speech Enhancement
本文介绍了一种新的深度复数卷积递归网络(DCCRN),用于处理语音增强问题,特别是针对低模型复杂度的实时处理。
27 5
|
1月前
|
机器学习/深度学习 PyTorch 算法框架/工具
【文献学习】Phase-Aware Speech Enhancement with Deep Complex U-Net
文章介绍了Deep Complex U-Net模型,用于复数值的语音增强,提出了新的极坐标掩码方法和wSDR损失函数,并通过多种评估指标验证了其性能。
31 1
|
1月前
|
机器学习/深度学习 算法 TensorFlow
【文献学习】Analysis of Deep Complex-Valued Convolutional Neural Networks for MRI Reconstruction
本文探讨了使用复数卷积神经网络进行MRI图像重建的方法,强调了复数网络在保留相位信息和减少参数数量方面的优势,并通过实验分析了不同的复数激活函数、网络宽度、深度以及结构对模型性能的影响,得出复数模型在MRI重建任务中相对于实数模型具有更优性能的结论。
23 0
【文献学习】Analysis of Deep Complex-Valued Convolutional Neural Networks for MRI Reconstruction
|
1月前
|
机器学习/深度学习 存储 算法
【文献学习】Deep Complex Networks
本文深入探讨了深度复数网络(Deep Complex Networks),包括其创新点、复数的优势、作者贡献,以及深度复数技术的具体应用,如复数卷积、激活函数、Batch-Normalization、权重初始化和卷积残差网络,并提出了对文中一些复杂概念的疑问和反思。
42 0
|
1月前
|
机器学习/深度学习 数据采集 数据可视化
【博士每天一篇文献-实验】Reservoir Computing Properties of Neural Dynamics in Prefrontal Cortex
本文通过储层计算框架模拟前额叶皮层的信息处理和表示,验证了其在理解大脑皮层神经活动方面的相关性,并展示了储层模型在复杂认知任务中的高效信息表达能力。
24 1
【博士每天一篇文献-实验】Reservoir Computing Properties of Neural Dynamics in Prefrontal Cortex
|
1月前
|
机器学习/深度学习 编解码 数据挖掘
【博士每天一篇文献-综述】Network hubs in the human brain
本文综述了人类大脑网络连接的研究,探讨了网络枢纽在认知功能和大脑疾病中的关键作用,并介绍了网络枢纽的检测方法以及网络模型在大脑功能研究中的应用。
25 1
|
1月前
|
存储
【博士每天一篇论文-理论分析】Dynamical systems, attractors, and neural circuits
本文是2016年Paul Miller在《F1000Research》上发表的论文,深入探讨了神经回路中的动力系统和吸引子,强调了使用基于动力系统的数学模型对神经回路进行准确建模的重要性,并分析了点吸引子、多稳态、记忆、抑制稳定网络等不同动力学系统在神经回路中的作用及对认知功能的影响。
17 7
【博士每天一篇论文-理论分析】Dynamical systems, attractors, and neural circuits
|
1月前
|
算法 前端开发 数据可视化
【博士每天一篇文献-综述】Brain network communication_ concepts, models and applications
本文综述了脑网络通信的概念、模型和应用,将脑网络通信模型分为扩散过程、参数模型和路由协议三大类,并探讨了这些模型在理解大脑功能、健康和疾病方面的应用,同时提出了未来研究方向和使用Brain Connectivity Toolbox等工具箱进行实际研究的指导。
27 1
【博士每天一篇文献-综述】Brain network communication_ concepts, models and applications

热门文章

最新文章