神经网络学习规则-5|学习笔记

简介: 快速学习神经网络学习规则-5

开发者学堂课程【神经网络概览及算法详解:神经网络学习规则-5】学习笔记与课程紧密联系,让用户快速学习知识

课程地址https://developer.aliyun.com/learning/course/40/detail/922


神经网络学习规则-5

 

内容介绍:

一、最小均方学习规则

二、相关学习规则

三、竞争学习&胜者为王

四、外星学习规则

 

一、最小均方学习规则

1962年 Bernard Widrow和Marcian Hoff 提出了Widrow-Hoff学习规则,又称为最小均方学习规则。它可以使神经元实际输出和期望输出之间的二次方的差最小,所以又称为最小均方学习规则( Least-Mean-Square , LMS)。

LMS规则的学习信号为: image.png,期望输出减掉实际输出的值,注意实际输出值,之前介绍实际输出的时候是image.png,代表及物函数,这里没有及物函数,直接用净输出来算。

权向量调整量为:image.png

权值分量调整为:image.png

最小均方算法是image.png学习规则的特例,其激活函数不同于image.png学习规则,不做任何变换,不用激活,直接输出,image.png学习规则选择一个常见的及物函数,s函数,tan函数等等。

image.png

image.png

image.png学习方式推倒一下,也得到相同的调整公式,这就说明最小均方算法是image.png学习规则的特例。最小均方算法和image.png学习规则相比,无需求导数,计算简单,学习速度快,且有不错的精度。所以最小均方算法用途比较广泛。

 

二、相关学习规则

相关学习规则的学习信号为:image.png;直接把期望输出当作学习信号;

权向量调整量为:image.png

权值分量调整为:image.png

赫布学习规则:

在该学习规则中,学习信号等于神经元的期望输出与实际输出之差

image.png

相关学习规则从权值调整上来看,是赫布学习规则的一个特例:当赫布规则的激活函数为二进制函数且有image.png时,期望输出与实际输出相等的时候,二者一致。

相关学习规则是赫布学习规则的特例。

相关学习规则是有导师学习,赫布规则是无导师学习。

 

三、竞争学习&胜者为王

竞争学习(Competition Learning )是人工神经网络的一种学习方式,指网络单元群体中所有单元相互竞争对外界刺激模式响应的权利。不是所有的神经网络元都有权利响应,竞争取胜的单元的连接权重向着对这一刺激有利的方向变化,获胜神经元的权重会得到调整,相对来说竞争取胜的单元抑制了竞争失败单元对刺激模式的响应。

属于自适应学习,使网络单元具有选择接受外界刺激模式的特性。竞争学习的更一般形式是不仅允许单个胜者出现,而是允许多个胜者出现,学习发生在胜者集合中各单元的连接权重上。

胜者为王学习规则(Winner-Take-All):无导师学习。将网络的某一层设置为竞争层,对于输入X竞争层的所有p个神经元均有输出响应,响应值最大的神经元在竞争中获胜,即:

image.png

获胜的神经元才有权调整其权向量Wm,调整量为:△Wm = α(X- Wm.), α∈(0,1],随着学习而减小。

在竞争学习过程中,竞争层的各神经元所对应的权向量逐渐调整为输入样本空间的聚类中心。

在实际应用中,通常会定义以获胜神经元为中心的邻域,所在邻域内的所有神经元都进行权重调整。

输入X(1)=(0.2,0.9798)T,X(2)=(-0.8,-0.6)T,X(3)=(0.4,0.9165)T,X(4)=(-0.7,-0.7141)T,X(5)=(0.3,0.9798)T,初始权重为:

image.png,学习率α = 0.5

首先将输入样本X及初始权重W归一化,并将其在一个单位圆上绘制出来。

image.png,五个红色点代表输出样本。

image.png

对每个样本计算不同神经元的响应值:image.png

算出样本和已知两点的相似程度:

对于样本X(1),计算神经元1输出:

image.png

计算神经元2输出:

image.png

对于样本X(1),神经元1胜出,更新权重:

image.png

在图中体现一下:通过对第一个样本的学习,第一个样本和神经元1更靠近,所以调整神经元1的权重,神经元1就向样本靠拢,神经元2无变化。

image.png

对于样本X(2),神经元1输出:

image.png

神经元2输出:

image.png

对于样本X(2),神经元2胜出,更新权重:

image.pngimage.png

神经元1没有变化,神经元2根据公式更新权重。获胜的是第2个神经元,由原来位置向样本靠拢。

image.png

对于样本X(3),神经元1输出:

image.png

神经元2输出:

image.png

对于样本X(3),神经元1胜出,更新权重:

image.png

神经元1又向样本靠拢,神经元2无变化。

对于样本X(4),神经元1输出:

image.png

神经元2输出:

image.png

对于样本X(4),神经元2胜出,更新权重:

image.png

神经元2胜出,更新权重,神经元2向样本移动,神经元1不动。

image.png

对于样本X(5),神经元1输出:

image.png

神经元2输出:

image.png

对于样本X(5),神经元1胜出,更新权重:

image.png

在所有的样本学习完之后就会发现,两个神经元已经将原有的样本分成了两类。

 

四、外星学习规则

内星节点∶总是接收其他神经元输入的加权信号,是信号的汇聚点,其对应的权值向量称作内星权向量。

外星节点︰总是向其他神经元输出加权信号,是信号的发散点,其对应的权值向量称作外星权向量。

image.png

内星学习规则:内星节点的输出响应是输入X和内星权向量W的点积,描述了输入与权向量的相似程度,其更新规则类似于胜者为王:image.png

外星学习规则:属于有导师学习,其目的是为了生成一个期望的m维输出向量d,外星权向量Wj更新通过两者的差异实现,其规则为:

image.png

两者的更新规则:

内星属于无导师学习,外星属于有导师学习

内星更新依赖于输入和权重的差异,外星更新依赖于输出和权重的差异

相关文章
|
30天前
|
Ubuntu 网络安全 图形学
Ubuntu学习笔记(二):ubuntu20.04解决右上角网络图标激活失败或者消失,无法连接有线问题。
在Ubuntu 20.04系统中解决网络图标消失和无法连接有线网络问题的方法,其中第三种方法通过检查并确保Windows防火墙中相关服务开启后成功恢复了网络连接。
341 0
Ubuntu学习笔记(二):ubuntu20.04解决右上角网络图标激活失败或者消失,无法连接有线问题。
|
5月前
|
机器学习/深度学习 自然语言处理 算法
【从零开始学习深度学习】49.Pytorch_NLP项目实战:文本情感分类---使用循环神经网络RNN
【从零开始学习深度学习】49.Pytorch_NLP项目实战:文本情感分类---使用循环神经网络RNN
|
5月前
|
机器学习/深度学习
【从零开始学习深度学习】37. 深度循环神经网络与双向循环神经网络简介
【从零开始学习深度学习】37. 深度循环神经网络与双向循环神经网络简介
|
28天前
|
机器学习/深度学习 数据可视化 Linux
Seaborn可视化学习笔记(一):可视化神经网络权重分布情况
这篇文章是关于如何使用Seaborn库来可视化神经网络权重分布的教程,包括函数信息、测试代码和实际应用示例。
34 0
|
3月前
|
机器学习/深度学习 自然语言处理 并行计算
【深度学习+面经】Transformer 网络学习笔记
Transformer模型的核心概念、优缺点以及在多个领域的应用,并提供了针对Transformer架构的面试问题及答案。
147 2
|
3月前
|
机器学习/深度学习 人工智能 TensorFlow
神经网络不再是黑魔法!Python带你一步步拆解,让AI学习看得见
【8月更文挑战第3天】神经网络,曾被视为难以触及的黑魔法,现已在Python的助力下变得平易近人。以TensorFlow或PyTorch为“魔法杖”,仅需几行Python代码即可构建强大的AI模型。从零开始,我们将教导AI识别手写数字,利用经典的MNIST数据集。通过数据加载、预处理至模型训练与评估,每个步骤都如精心编排的舞蹈般清晰可见。随着训练深入,AI逐渐学会辨认每个数字,其学习过程直观展现。这不仅揭示了神经网络的奥秘,更证明了任何人都能借助Python创造AI奇迹,共同探索未来的无限可能。
44 2
|
3月前
|
机器学习/深度学习 算法 网络架构
神经网络架构殊途同归?ICML 2024论文:模型不同,但学习内容相同
【8月更文挑战第3天】《神经语言模型的缩放定律》由OpenAI研究人员完成并在ICML 2024发表。研究揭示了模型性能与大小、数据集及计算资源间的幂律关系,表明增大任一资源均可预测地提升性能。此外,论文指出模型宽度与深度对性能影响较小,较大模型在更多数据上训练能更好泛化,且能高效利用计算资源。研究提供了训练策略建议,对于神经语言模型优化意义重大,但也存在局限性,需进一步探索。论文链接:[https://arxiv.org/abs/2001.08361]。
43 1
|
4月前
|
机器学习/深度学习 数据采集 监控
算法金 | DL 骚操作扫盲,神经网络设计与选择、参数初始化与优化、学习率调整与正则化、Loss Function、Bad Gradient
**神经网络与AI学习概览** - 探讨神经网络设计,包括MLP、RNN、CNN,激活函数如ReLU,以及隐藏层设计,强调网络结构与任务匹配。 - 参数初始化与优化涉及Xavier/He初始化,权重和偏置初始化,优化算法如SGD、Adam,针对不同场景选择。 - 学习率调整与正则化,如动态学习率、L1/L2正则化、早停法和Dropout,以改善训练和泛化。
44 0
算法金 | DL 骚操作扫盲,神经网络设计与选择、参数初始化与优化、学习率调整与正则化、Loss Function、Bad Gradient
|
5月前
|
机器学习/深度学习 PyTorch 算法框架/工具
【从零开始学习深度学习】36. 门控循环神经网络之长短期记忆网络(LSTM)介绍、Pytorch实现LSTM并进行训练预测
【从零开始学习深度学习】36. 门控循环神经网络之长短期记忆网络(LSTM)介绍、Pytorch实现LSTM并进行训练预测
|
5月前
|
机器学习/深度学习 算法 PyTorch
【从零开始学习深度学习】50.Pytorch_NLP项目实战:卷积神经网络textCNN在文本情感分类的运用
【从零开始学习深度学习】50.Pytorch_NLP项目实战:卷积神经网络textCNN在文本情感分类的运用
下一篇
无影云桌面