开发者学堂课程【神经网络概览及算法详解:神经网络学习规则-5】学习笔记与课程紧密联系,让用户快速学习知识
课程地址:https://developer.aliyun.com/learning/course/40/detail/922
神经网络学习规则-5
内容介绍:
一、最小均方学习规则
二、相关学习规则
三、竞争学习&胜者为王
四、外星学习规则
一、最小均方学习规则
1962年 Bernard Widrow和Marcian Hoff 提出了Widrow-Hoff学习规则,又称为最小均方学习规则。它可以使神经元实际输出和期望输出之间的二次方的差最小,所以又称为最小均方学习规则( Least-Mean-Square , LMS)。
LMS规则的学习信号为: ,期望输出减掉实际输出的值,注意实际输出值,之前介绍实际输出的时候是,代表及物函数,这里没有及物函数,直接用净输出来算。
权向量调整量为:
权值分量调整为:
最小均方算法是学习规则的特例,其激活函数不同于学习规则,不做任何变换,不用激活,直接输出,学习规则选择一个常见的及物函数,s函数,tan函数等等。
学习方式推倒一下,也得到相同的调整公式,这就说明最小均方算法是学习规则的特例。最小均方算法和学习规则相比,无需求导数,计算简单,学习速度快,且有不错的精度。所以最小均方算法用途比较广泛。
二、相关学习规则
相关学习规则的学习信号为:;直接把期望输出当作学习信号;
权向量调整量为:
权值分量调整为:
赫布学习规则:
在该学习规则中,学习信号等于神经元的期望输出与实际输出之差
相关学习规则从权值调整上来看,是赫布学习规则的一个特例:当赫布规则的激活函数为二进制函数且有时,期望输出与实际输出相等的时候,二者一致。
相关学习规则是赫布学习规则的特例。
相关学习规则是有导师学习,赫布规则是无导师学习。
三、竞争学习&胜者为王
竞争学习(Competition Learning )是人工神经网络的一种学习方式,指网络单元群体中所有单元相互竞争对外界刺激模式响应的权利。不是所有的神经网络元都有权利响应,竞争取胜的单元的连接权重向着对这一刺激有利的方向变化,获胜神经元的权重会得到调整,相对来说竞争取胜的单元抑制了竞争失败单元对刺激模式的响应。
属于自适应学习,使网络单元具有选择接受外界刺激模式的特性。竞争学习的更一般形式是不仅允许单个胜者出现,而是允许多个胜者出现,学习发生在胜者集合中各单元的连接权重上。
胜者为王学习规则(Winner-Take-All):无导师学习。将网络的某一层设置为竞争层,对于输入X竞争层的所有p个神经元均有输出响应,响应值最大的神经元在竞争中获胜,即:
获胜的神经元才有权调整其权向量Wm,调整量为:△Wm = α(X- Wm.), α∈(0,1],随着学习而减小。
在竞争学习过程中,竞争层的各神经元所对应的权向量逐渐调整为输入样本空间的聚类中心。
在实际应用中,通常会定义以获胜神经元为中心的邻域,所在邻域内的所有神经元都进行权重调整。
输入X(1)=(0.2,0.9798)T,X(2)=(-0.8,-0.6)T,X(3)=(0.4,0.9165)T,X(4)=(-0.7,-0.7141)T,X(5)=(0.3,0.9798)T,初始权重为:
,学习率α = 0.5
首先将输入样本X及初始权重W归一化,并将其在一个单位圆上绘制出来。
,五个红色点代表输出样本。
对每个样本计算不同神经元的响应值:
算出样本和已知两点的相似程度:
对于样本X(1),计算神经元1输出:
计算神经元2输出:
对于样本X(1),神经元1胜出,更新权重:
在图中体现一下:通过对第一个样本的学习,第一个样本和神经元1更靠近,所以调整神经元1的权重,神经元1就向样本靠拢,神经元2无变化。
对于样本X(2),神经元1输出:
神经元2输出:
对于样本X(2),神经元2胜出,更新权重:
神经元1没有变化,神经元2根据公式更新权重。获胜的是第2个神经元,由原来位置向样本靠拢。
对于样本X(3),神经元1输出:
神经元2输出:
对于样本X(3),神经元1胜出,更新权重:
神经元1又向样本靠拢,神经元2无变化。
对于样本X(4),神经元1输出:
神经元2输出:
对于样本X(4),神经元2胜出,更新权重:
神经元2胜出,更新权重,神经元2向样本移动,神经元1不动。
对于样本X(5),神经元1输出:
神经元2输出:
对于样本X(5),神经元1胜出,更新权重:
在所有的样本学习完之后就会发现,两个神经元已经将原有的样本分成了两类。
四、外星学习规则
内星节点∶总是接收其他神经元输入的加权信号,是信号的汇聚点,其对应的权值向量称作内星权向量。
外星节点︰总是向其他神经元输出加权信号,是信号的发散点,其对应的权值向量称作外星权向量。
内星学习规则:内星节点的输出响应是输入X和内星权向量W的点积,描述了输入与权向量的相似程度,其更新规则类似于胜者为王:
外星学习规则:属于有导师学习,其目的是为了生成一个期望的m维输出向量d,外星权向量Wj更新通过两者的差异实现,其规则为:
两者的更新规则:
内星属于无导师学习,外星属于有导师学习
内星更新依赖于输入和权重的差异,外星更新依赖于输出和权重的差异