优化函数、学习速率和反向传播算法 | 学习笔记

简介: 快速学习优化函数、学习速率和反向传播算法

开发者学堂课程【Tensorflow2.0入门与实战优化函数、学习速率和反向传播算法】学习笔记,与课程紧密联系,让用户快速学习知识。

课程地址https://developer.aliyun.com/learning/course/664/detail/11108


优化函数、学习速率和反向传播算法


内容介绍:

一、多层感知器架构

二、学习速率

三、反向传播算法

四、优化器的实例


一、多层感知器架构

1、多层感知器架构

image.png

输入层就是我们输入的数据,中间有一层或多层隐含层

输出层的特点:

预测一个连续的值,不进行激活,直接使其输出;

预测是否等分类的问题,对其进行二次分离输出。

2、梯度下降法(多层感知器的优化)

梯度下降法是一种致力于找到函数极值点的算法。

前面介绍过,所谓“学习”便是改进模型参数,以便通过大量训练步骤将损失最小化。有了这个概念,将梯度下降法应用于寻找损失函数的极值点便构成了依据输入数据的模型学习。

梯度的输出是一个由若干偏导数构成的向量,它的每个分量对应于函数对输入向量的相应分量的偏导:

image.png

梯度的输出向量表明了在每个位置损失函数增长最快的方向,可将它视为表示了在函数的每个位置向哪个方向移动函数值可以增长。沿梯度相反的方向移动,函数值快速减小,从而找到极值点。

image.png

曲线对应于损失函数。点表示权值的当前值,即现在所在的位置。

梯度用箭头表示,表明为了增加损失,需要向右移动。此外,箭头的长度概念化地表示了如果在对应的方向移动,

函数值能够增长多少。如果向着梯度的反方向移动,则损失函数的值会相应减小。

沿着损失函数减小的方向移动,并再次计算梯度值,并重复上述过程,直至梯度的模为0,将到达损失函数的极小值点。这正是我们的目标


二、学习速率

梯度就是表明损失函数相对参数的变化率对梯度进行缩放的参数被称为学习速率(learning rate)

学习速率是一种超参数或对模型的一种手工可配置的设置需要为它指定正确的值。如果学习速率太小,则找到损失函数极小值点时可能需要许多轮迭代;如果太大,则算法可能会“跳过”极小值点并且因周期性的“跳跃”而永远无法找到极小值点。

写代码时人为规定的参数称为超参数。

在具体实践中,可通过查看损失函数值随时间的变化曲线,来判断学习速率的选取是合适的。合适的学习速率,损失函数随时间下降,直到一个底部不合适的学习速率,损失函数可能会发生震荡。

image.png

学习速率选取原则

在调整学习速率时,既需要使其足够小,保证不至于发生超调,也要保证它足够大,以使损失函数能够尽快下降,从而可通过较少次数的迭代更快地完成学习

局部极值点:

image.png

可通过将权值随机初始化来改善局部极值的问题。

权值的初值使用随机值,可以增加从靠近全局最优点附近开始下降的机会。


三、反向传播算法

1、反向传播算法

反向传播算法是一种高效计算数据流图中梯度的技术

每一层的导数都是后一层的导数与前一层输出之积,这正是链式法则的奇妙之处,误差反向传播算法利用的正是这一特点

前馈时,从输入开始,逐一计算每个隐含层的输出,直到输出层然后开始计算导数,并从输出层经各隐含层逐一反向传播。为了减少计算量,还需对所有已完成计算的元素进行复用。这便是反向传播算法名称的由来。

2、常见的优化函数

优化器(optimizer)是编译模型的所需的两个参数之一。可以先实例化一个优化器对象,然后将它传入model.compile(),或者你可以通过名称来调用优化器。在后一种情况下,将使用优化器的默认参数。

SGD:随机梯度下降优化器(作为了解)

随机梯度下降优化器SGD和min-batch是同一个意思,抽取m个小批量独立同分布样本,通过计算他们平梯度均值。

lr: float >= 0.学习率。

momentum: float >= 0.参数,用于加速 SGD 在相关方向上前进,并抑制震荡。

decay: float >= 0.每次参数更新后学习率衰减值。

nesterov: boolean.是否使用Nesterov动量。

RMSprop:

经验上,RMSProp 被证明有效且实用的深度学习网络优化算法.

RMSProp增加了一个衰减系数来控制历史信息的获取多少RMSProp 会对学习率进行衰减。

建议使用优化器的默认参数(除了学习率lr,它可以被自由调节)

这个优化器通常是训练循环神经网络RNN的不错选择。

Ir: float > =0.学习率。

rho: float >= 0.RMSProp梯度平方的移动均值的衰减率.

epsilon: float >= 0.模糊因子.若为None,默认K.epsilon()。

decay: float >= 0.每次参数更新后学习率衰减值。

Adam优化器:

1.Adam 算法可以看做是修正后的Momentum+RMSProp算法.

2.Adam 通常被认为对超参数的选择相当鲁棒(不敏感)

3.学习率建议为0.001

Adam 是一种可以替代传统随机梯度下降过程的一阶优化算法,它能基于训练数据迭代地更新神经网络权重。

Adam 通过计算梯度的一阶矩估计和二阶矩估计而为不同的参数设计独立的自适应性学习率

Adam 常见参数

lr: float >= 0.学习率。

beta_1: float, 0 < beta < 1.通常接近于1。

beta_2: float, 0 < beta < 1.通常接近于1。

decay: float >= 0.每次参数更新后学习率衰减值。

 

四、优化器的实例

使用上节课的例子,将

In[38]: model.compile(optimizer='adam’,

loss='categorical_crossentropy',

metrics=['acc']

部分替换为

In[38]:model.compile(optimizer=tf.keras.optimizers.Adam(learning_rate=0.01),

loss=' categorical_crossentropy',

metrics=['acc']

默认学习速率是0.001,将其改为0.01,即比较大的学习速率,重新编译一下,可以看到结果很快就达到了饱和,结果不是很好。

学习时可以尝试使用不同的学习速率以及不同的优化器,查看其效果的区别。

相关文章
|
2月前
|
机器学习/深度学习 算法 数据可视化
基于MVO多元宇宙优化的DBSCAN聚类算法matlab仿真
本程序基于MATLAB实现MVO优化的DBSCAN聚类算法,通过多元宇宙优化自动搜索最优参数Eps与MinPts,提升聚类精度。对比传统DBSCAN,MVO-DBSCAN有效克服参数依赖问题,适应复杂数据分布,增强鲁棒性,适用于非均匀密度数据集的高效聚类分析。
|
2月前
|
机器学习/深度学习 算法
采用蚁群算法对BP神经网络进行优化
使用蚁群算法来优化BP神经网络的权重和偏置,克服传统BP算法容易陷入局部极小值、收敛速度慢、对初始权重敏感等问题。
328 5
|
3月前
|
canal 算法 vr&ar
【图像处理】基于电磁学优化算法的多阈值分割算法研究(Matlab代码实现)
【图像处理】基于电磁学优化算法的多阈值分割算法研究(Matlab代码实现)
143 1
|
2月前
|
机器学习/深度学习 人工智能 算法
【基于TTNRBO优化DBN回归预测】基于瞬态三角牛顿-拉夫逊优化算法(TTNRBO)优化深度信念网络(DBN)数据回归预测研究(Matlab代码实现)
【基于TTNRBO优化DBN回归预测】基于瞬态三角牛顿-拉夫逊优化算法(TTNRBO)优化深度信念网络(DBN)数据回归预测研究(Matlab代码实现)
159 0
|
2月前
|
机器学习/深度学习 算法 物联网
基于遗传方法的动态多目标优化算法
基于遗传方法的动态多目标优化算法
|
3月前
|
机器学习/深度学习 存储 算法
【微电网调度】考虑需求响应的基于改进多目标灰狼算法的微电网优化调度研究(Matlab代码实现)
【微电网调度】考虑需求响应的基于改进多目标灰狼算法的微电网优化调度研究(Matlab代码实现)
173 0
|
2月前
|
机器学习/深度学习 算法 机器人
【水下图像增强融合算法】基于融合的水下图像与视频增强研究(Matlab代码实现)
【水下图像增强融合算法】基于融合的水下图像与视频增强研究(Matlab代码实现)
277 0
|
2月前
|
数据采集 分布式计算 并行计算
mRMR算法实现特征选择-MATLAB
mRMR算法实现特征选择-MATLAB
213 2
|
3月前
|
传感器 机器学习/深度学习 编解码
MATLAB|主动噪声和振动控制算法——对较大的次级路径变化具有鲁棒性
MATLAB|主动噪声和振动控制算法——对较大的次级路径变化具有鲁棒性
226 3

热门文章

最新文章