神经网络学习规则-2|学习笔记

简介: 快速学习神经网络学习规则-2

开发者学堂课程【神经网络概览及算法详解神经网络学习规则-2】学习笔记与课程紧密联系,让用户快速学习知识

课程地址https://developer.aliyun.com/learning/course/40/detail/919


神经网络学习规则-2

 

内容介绍:

一、赫布法则    

二、巴甫洛夫的条件反射实验    

三、赫布学习规则是什么

四、赫布学习规则步骤

五、赫布学习规则距举例

 

一、赫布法则                            

赫布法则(Hebb's rule):Donald Hebb是一位生物学家,在他的一本书《The Organization of Behavior》中解释了学习过程中大脑中的神经细胞是如何改变和调整的,认为知识和学习发生在大脑主要是通过神经元间突触的形成与变化。

当细胞A的轴突足以接近以激发细胞B,并反复持续地对细胞B放电,一些生长过程或代谢变化将发生在某一个或这两个细胞内,导致A作为对B放电的细胞中的一个效率增加。通俗来讲就是两个神经细胞交流越多,它们连接的效率就越高,两个神经细胞交流越少,连接的效率就越低。

McCulloch-Pitts模型缺乏一个对人工智能而言至关重要的学习机制,M-P模型很好的简化、模拟了神经元,但是无法通过学习的方式调整、优化权重,形成有效的模型。赫布法则的出现解决了以上问题,成为神经模型的训练(学习机制)的基础性工作。

 

二、巴甫洛夫的条件反射实验

大家都知道薛定谔的猫,芝诺的乌龟,巴甫洛夫的狗,巴甫洛夫著名的条件反射实验:每次给狗喂食前都先响铃,时间一长,狗就会将铃声和食物联系起来。以后如果铃响但是不给食物,狗也会流口水。

赫布受此实验启发,认为在同一时间被激发的神经元间的联系会被强化。

例如,铃声响时一个神经元被激发,在同一时间食物的出现会激发附近的另一个神经元,那么这两个神经元间的联系会被强化,从而记住这两个事物之间存在着联系。相反,如果两个神经元总是不能同步激发,那么它们之间的联系将会越来越弱。

例如,每次喂狗前不摇铃而敲鼓,那么渐渐的每次喂狗再摇铃狗将不会有反应。联系变淡,赫布规则被作为无监督神经网络的学习规则,广泛应用于自组织神经网络、竞争网络中。这个在后面讲自组织神经网络、竞争网络时也会通过讲赫布法则的方式训练模型。

 

三、赫布学习规则是什么

赫布学习规则为前馈、无导师学习。只根据实际输入和输出调整权重。

在赫布学习规则中:

1、学习信号简单的等于神经元的输出:

image.png

中间 nat 值,代数的累加和经过激活函数 f  处理即为实际函数。这个也叫做学习信号。

2、权重向量的调整公为:

image.png

每次调整权值时的变化量就等于 η 乘上输出信号 r 再乘上输入 X 。η为常数。这个为向量表现形式。

3、权向量各个分量调整为:

image.png

分量形式更容易理解,变化的,需要调整的权向量 W 下标 i j 等于常数 η 乘输出再乘 x 下标 i 。

回想单个神经元的图,有输入有输出,x1 有自己对应的权重 w1 键,更新 w1 键权重时,实际上是用整个的输出乘一个常数,再和对应的输入乘起来,简单记作

Η 乘 o 下标 j 乘下标 i 。利用上图公式来调整权重,该公式说明权向量的调整和输入输出的乘积成正比。可以用 η 乘o下标 j 乘下标 i 来调整权向量更改的速度。


四、赫布学习规则步骤

1、初始化权值 W ,一般赋予 0 附近的随机数;

2、初始化学习率 η ;

3、对所有输入记录;

根据输入记录,更新权重值。

 

五、赫布学习规则例子:

如题:

image.png

阈值: T=0,学习速率: η =1(需要自己调整可接受的值),初始权值: w0)=(1,-1,0, 0.5)T ,输入样本有: x(1)=(1,-2,1.5,0)T ,使用第一个样本 x1=1 , x2=-2 ,  x3=1.5 , x4=0 ;  x(2) = (1,-0.5,-2,-1.5)T 第二个样本同上,x(3) = (0,1,-1,1.5)T ,激活函数: f(x)=sgn(x) ,使用赫布规则训练网络。

首先代入第一个样本x(1),计算net(1)下标1。(净输出)

净输出= x1 乘 x1 的权重+ x2 乘 x2 的权重+  x3 乘 x3 的权重+ x4 乘 x4 的权重。如下图中所示:net(1)下标1 =初始权值:  w0)=(1,-1,0, 0.5)T 乘 x(1)=(1,-2,1.5,0)T  =3。

image.png

根据第一个样本 x(1),更新 w(0):

image.png

W(1)表示第一次更新,等于原来的值加 η 乘输出值(输出值=sgn(net(1) * x(1) )再乘x(1)。net(1)下标1的值是3,大于阈值,3 3的复合函数的取值为1,再乘x1,就得到 W 第一次更新的值。

net(1)下标1的值是3,需要激活函数进行处理为 o ,激活函数是复合函数,他的值大于0,输出结果就是1,小于0,输出结果就是-1。3大于0,故3的复合函数的取值为1。

代入第二个样本 x(2),计算 net(2)下标1。

image.png

将样本值代入,注意权重值 w(1) 是第一次更新后的值,不再是初始值,结果是-0.25。然后再根据第二个样本进行更新 w(1)。发现这个时候为-1,实际为对-0.25求 sgn ,sgn函数值为 -1 ,就得到第二次更新后的当前的权重值。

代入第三个样本 X(3),计算 net(3) 下标1。用第二次更新的权重值乘第三个样本,结果为-3,再根据第三个样本来更新w(2)的权重,值为-1,即原来的权重值加上学习率乘复合函数的结果-1再乘输入值x(3),结果为第三次更新后的权重值。

image.png

这就是赫布学习规则。

相关文章
|
30天前
|
Ubuntu 网络安全 图形学
Ubuntu学习笔记(二):ubuntu20.04解决右上角网络图标激活失败或者消失,无法连接有线问题。
在Ubuntu 20.04系统中解决网络图标消失和无法连接有线网络问题的方法,其中第三种方法通过检查并确保Windows防火墙中相关服务开启后成功恢复了网络连接。
341 0
Ubuntu学习笔记(二):ubuntu20.04解决右上角网络图标激活失败或者消失,无法连接有线问题。
|
5月前
|
机器学习/深度学习 自然语言处理 算法
【从零开始学习深度学习】49.Pytorch_NLP项目实战:文本情感分类---使用循环神经网络RNN
【从零开始学习深度学习】49.Pytorch_NLP项目实战:文本情感分类---使用循环神经网络RNN
|
5月前
|
机器学习/深度学习
【从零开始学习深度学习】37. 深度循环神经网络与双向循环神经网络简介
【从零开始学习深度学习】37. 深度循环神经网络与双向循环神经网络简介
|
28天前
|
机器学习/深度学习 数据可视化 Linux
Seaborn可视化学习笔记(一):可视化神经网络权重分布情况
这篇文章是关于如何使用Seaborn库来可视化神经网络权重分布的教程,包括函数信息、测试代码和实际应用示例。
34 0
|
3月前
|
机器学习/深度学习 自然语言处理 并行计算
【深度学习+面经】Transformer 网络学习笔记
Transformer模型的核心概念、优缺点以及在多个领域的应用,并提供了针对Transformer架构的面试问题及答案。
147 2
|
3月前
|
机器学习/深度学习 人工智能 TensorFlow
神经网络不再是黑魔法!Python带你一步步拆解,让AI学习看得见
【8月更文挑战第3天】神经网络,曾被视为难以触及的黑魔法,现已在Python的助力下变得平易近人。以TensorFlow或PyTorch为“魔法杖”,仅需几行Python代码即可构建强大的AI模型。从零开始,我们将教导AI识别手写数字,利用经典的MNIST数据集。通过数据加载、预处理至模型训练与评估,每个步骤都如精心编排的舞蹈般清晰可见。随着训练深入,AI逐渐学会辨认每个数字,其学习过程直观展现。这不仅揭示了神经网络的奥秘,更证明了任何人都能借助Python创造AI奇迹,共同探索未来的无限可能。
44 2
|
3月前
|
机器学习/深度学习 算法 网络架构
神经网络架构殊途同归?ICML 2024论文:模型不同,但学习内容相同
【8月更文挑战第3天】《神经语言模型的缩放定律》由OpenAI研究人员完成并在ICML 2024发表。研究揭示了模型性能与大小、数据集及计算资源间的幂律关系,表明增大任一资源均可预测地提升性能。此外,论文指出模型宽度与深度对性能影响较小,较大模型在更多数据上训练能更好泛化,且能高效利用计算资源。研究提供了训练策略建议,对于神经语言模型优化意义重大,但也存在局限性,需进一步探索。论文链接:[https://arxiv.org/abs/2001.08361]。
43 1
|
4月前
|
机器学习/深度学习 数据采集 监控
算法金 | DL 骚操作扫盲,神经网络设计与选择、参数初始化与优化、学习率调整与正则化、Loss Function、Bad Gradient
**神经网络与AI学习概览** - 探讨神经网络设计,包括MLP、RNN、CNN,激活函数如ReLU,以及隐藏层设计,强调网络结构与任务匹配。 - 参数初始化与优化涉及Xavier/He初始化,权重和偏置初始化,优化算法如SGD、Adam,针对不同场景选择。 - 学习率调整与正则化,如动态学习率、L1/L2正则化、早停法和Dropout,以改善训练和泛化。
44 0
算法金 | DL 骚操作扫盲,神经网络设计与选择、参数初始化与优化、学习率调整与正则化、Loss Function、Bad Gradient
|
5月前
|
机器学习/深度学习 PyTorch 算法框架/工具
【从零开始学习深度学习】36. 门控循环神经网络之长短期记忆网络(LSTM)介绍、Pytorch实现LSTM并进行训练预测
【从零开始学习深度学习】36. 门控循环神经网络之长短期记忆网络(LSTM)介绍、Pytorch实现LSTM并进行训练预测
|
5月前
|
机器学习/深度学习 算法 PyTorch
【从零开始学习深度学习】50.Pytorch_NLP项目实战:卷积神经网络textCNN在文本情感分类的运用
【从零开始学习深度学习】50.Pytorch_NLP项目实战:卷积神经网络textCNN在文本情感分类的运用
下一篇
无影云桌面