【博士每天一篇文献-模型】Deep learning incorporating biologically inspired neural dynamics and in memory

简介: 本文介绍了一种结合生物学启发的神经动力学和内存计算的深度学习方法,提出了脉冲神经单元(SNU),该单元融合了脉冲神经网络的时间动力学和人工神经网络的计算能力,通过实验分析显示,在手写数字识别任务中,基于SNU的网络达到了与循环神经网络相似或更高的准确性。

Deep learning incorporating biologically inspired neural dynamics and in memory computing

阅读时间:2023-10-20

1 创新点介绍

将深度学习应用于脉冲神经网络(SNNs),并结合了生物学启发的神经动力学和内存计算。作者提出了一种名为脉冲神经单元(SNU)的新方法,该方法将SNNs的时间动力学与人工神经网络(ANNs)的计算能力相结合。SNUs可以作为SNNs使用阶跃函数激活,也可以使用连续激活作为ANNs。

2 系统模型

脉冲神经网络常使用LIF(Leaky Integrate-and-Fire)神经元来模拟脉冲活动。LIF神经元的动力学由微分方程描述,其中Vm(t)表示膜电位,R和C分别表示神经元细胞体的电阻和电容。输入电流通过突触权重调制,并通过离子通道在膜电位中积分。当膜电位越过激活阈值时,发射输出脉冲,并将膜电位重置为静息状态。这种方法为研究脉冲神经网络中的LIF动力学提供了基本框架。
将LIF动力学引入到一个人工神经网络单元中,被称为脉冲神经元单元(SNU)。SNU由两个人工神经元子单元组成:N1模拟膜电位积累动力学,N2实现脉冲发射。膜电位状态变量的积分动力学通过与N1的自环连接实现。脉冲发射通过具有阶跃激活函数的神经元N2实现。同时,N2的激活通过对N1上的自环连接进行门控以重置状态变量。
SNU的数学表达式如下所示:
$ st = g(Wx_t + l(\tau)⊙s_{t-1} ⊙ (1 - y_{t-1})) \\ yt = h(s_t + b) $
其中, $ s_t $是内部状态变量的向量,由 $ N_1 $​子单元计算得出; $t y_t $是输出向量,由 $ N_2 $​子单元计算得出;g是输入激活函数;h是输出激活函数; ⊙表示逐元素向量乘法。

截屏2023-10-20 下午4.19.36.png

RN、LSTM、GRU和SNU结构对比

3 实验分析

对比ANN、SNN、SNU、LSTM、所有网络都使用BPTT算法
对于手写数字识别任务,7层SNN的平均识别准确率达到了98.47%。与各种循环神经网络(LSTM和GRU)相比,具有相似结构的SNU-based网络在准确性上达到最高水平。使用4层网络和sSNUs获得了最好的结果,准确率达到了98.5%。

4 代码

https://github.com/takyamamoto/SNU_Chainer?utm_source=catalyzex.com

目录
相关文章
|
机器学习/深度学习 搜索推荐 算法
Learning Disentangled Representations for Recommendation | NIPS 2019 论文解读
近年来随着深度学习的发展,推荐系统大量使用用户行为数据来构建用户/商品表征,并以此来构建召回、排序、重排等推荐系统中的标准模块。普通算法得到的用户商品表征本身,并不具备可解释性,而往往只能提供用户-商品之间的attention分作为商品粒度的用户兴趣。我们在这篇文章中,想仅通过用户行为,学习到本身就具备一定可解释性的解离化的用户商品表征,并试图利用这样的商品表征完成单语义可控的推荐任务。
23841 0
Learning Disentangled Representations for Recommendation | NIPS 2019 论文解读
|
4月前
|
存储 算法
【博士每天一篇文献-算法】On tiny episodic memories in continual learning
本文研究了在连续学习环境中使用小型情节记忆来解决灾难性遗忘问题,通过实证分析发现经验重播(ER)方法在连续学习中的表现优于现有最先进方法,并且重复训练对过去任务的小型记忆可以提升泛化性能。
24 1
【博士每天一篇文献-算法】On tiny episodic memories in continual learning
|
4月前
|
机器学习/深度学习 数据挖掘
【博士每天一篇文献-综述】Communication dynamics in complex brain networks
本文综述了复杂脑网络中的通信动态,提出了一个将通信动态视为结构连接和功能连接之间必要联系的概念框架,探讨了结构网络的局部和全局拓扑属性如何支持网络通信模式,以及网络拓扑与动态模型之间的相互作用如何提供对大脑信息转换和处理机制的额外洞察。
47 2
【博士每天一篇文献-综述】Communication dynamics in complex brain networks
|
4月前
|
机器学习/深度学习 算法
【博士每天一篇文献-综述】A wholistic view of continual learning with deep neural networks Forgotten
本文提出了一个整合持续学习、主动学习(active learning)和开放集识别(open set recognition)的统一框架,基于极端值理论(Extreme Value Theory, EVT)的元识别方法,强调了在深度学习时代经常被忽视的从开放集识别中学习识别未知样本的教训和主动学习中的数据查询策略,通过实证研究展示了这种整合方法在减轻灾难性遗忘、数据查询、任务顺序选择以及开放世界应用中的鲁棒性方面的联合改进。
39 6
|
4月前
|
机器学习/深度学习 存储 人工智能
【博士每天一篇文献-综述】Brain-inspired learning in artificial neural networks a review
这篇综述论文探讨了如何将生物学机制整合到人工神经网络中,以提升网络性能,并讨论了这些整合带来的潜在优势和挑战。
45 5
|
4月前
|
存储 机器学习/深度学习 算法
【博士每天一篇文献-算法】Fearnet Brain-inspired model for incremental learning
本文介绍了FearNet,一种受大脑记忆机制启发的神经网络模型,用于解决增量学习中的灾难性遗忘问题。FearNet不存储先前的例子,而是使用由海马体复合体和内侧前额叶皮层启发的双记忆系统,以及一个受基底外侧杏仁核启发的模块来决定使用哪个记忆系统进行回忆,有效减轻了灾难性遗忘,且在多个数据集上取得了优异的性能。
33 6
|
4月前
|
机器学习/深度学习 存储 人工智能
【博士每天一篇文献-算法】改进的PNN架构Progressive learning A deep learning framework for continual learning
本文提出了一种名为“Progressive learning”的深度学习框架,通过结合课程选择、渐进式模型容量增长和剪枝机制来解决持续学习问题,有效避免了灾难性遗忘并提高了学习效率。
77 4
|
4月前
|
机器学习/深度学习 算法 调度
【博士每天一篇文献-算法】Neurogenesis Dynamics-inspired Spiking Neural Network Training Acceleration
NDSNN(Neurogenesis Dynamics-inspired Spiking Neural Network)是一种受神经发生动态启发的脉冲神经网络训练加速框架,通过动态稀疏性训练和新的丢弃与生长策略,有效减少神经元连接数量,降低训练内存占用并提高效率,同时保持高准确性。
47 3
|
4月前
|
机器学习/深度学习 存储 算法
【博士每天一篇文献-综述】Continual lifelong learning with neural networks_ A review
这篇综述论文深入探讨了神经网络在终身学习领域的研究进展,包括生物学启发的概念、终身学习方法的分类与评估,以及未来研究方向,旨在解决神经网络在学习新任务时如何避免灾难性遗忘的问题。
50 2
|
4月前
|
存储 机器学习/深度学习 算法
【博士每天一篇文献-算法】Gradient Episodic Memory for Continual Learning
本文介绍了一种名为Gradient Episodic Memory(GEM)的算法,旨在解决神经网络在持续学习中的灾难性遗忘问题,通过构建经验记忆库传递知识,同时提出了评估模型在任务间转移知识和避免遗忘能力的度量指标。
75 0
【博士每天一篇文献-算法】Gradient Episodic Memory for Continual Learning