自适应线性单元|学习笔记

简介: 快速学习自适应线性单元

开发者学堂课程【神经网络概览及算法详解自适应线性单元】学习笔记与课程紧密联系,让用户快速学习知识

课程地址:https://developer.aliyun.com/learning/course/40/detail/928


自适应线性单元

 

内容简介:

一、自适应线性单元

二、ANDLINE &感知器

三、最小均方学习规则

四、MADALINE

 

一、自适应线性单元

第三章自适应线性单元,是1962年教授 Widrow 提出的一种自适应可调的神经网络,神经网络的学习规则时提到的一种算法LMS,最小均方算法,又名 Widrow Hoff 算法,这个算法是由这两个人联合提出的。组成自适应可调神经网络的基本单元称为自适应性单元(Adaptive Linear Neuron ,ADALINE)。 ADALINE主要作用是线性逼近一个函数式而进行模式联想。

image.png

如上图,输出层为一组向量,或一个向量的各个分量,净输出是由各个输入值乘以权重值的和。其中最大的区别在于线性激活函数,之前所介绍的均为离散型。

自适应性单元最大的特点就是函数是线性的。我们在调节训练网络的时候,需要看实际误差,因为是线性函数,所以输出为连续值。输出值与输入值的差,称为误差。

误差作为调整整个网络参数权重值的一个标准,通过这个调节,直到误差达到可接受的范围。图中的量化函数用作对输出值的分类,将连续的输出值变为离散值这样既可以做回归分析,回归预测,也可以做分类。自适应性单元是最早用于实际工程,解决实际问题的,当时主要通过电路设计来实现,主要用于自适应滤波。滤波就好比在嘈杂的环境中说话,我们把说的话提取出来,我们需要去掉许多环境的噪声,这就是滤波的一种。主要应用,例如语音识别、天气预报、信号处理等方面。

 

二、ANDLINE &感知器

二者主要区别就是有以下几点:

1.激活函数不同:ADALINE 是线性函数,而感知器是阈值函数。

2.误差含义也不同:ADALINE 误差为连续的值,而感知器的误差代表对和错。

3.误差更新不同: ADALINE 在输出最终结果前根据误差更新权重,感知器在输出最终结果后更新。

4.损失函数不同:ADALINE使用均方误差SSE作为损失函数,可最小化损失函数,感知器没有损失函数。

image.png

需要注意的是:SSE为凸函数,可以微分,求解时可用梯度下降法,但数量速度较慢。

另外,输出结果ADALINE可以输出连续值或分类值,如果量化函数输出一个分类值,而感知器只能输出分类值。

 

三、最小均方学习规则

称作LMS,学习信号为:r=dj-wTjX

权向量调整量:Wj=η(dj-wTjX)X

权值分量调整为:Wij=η(dj-wTjX)Xi

该方法的特点就是不需要求导,速度快。

image.png


四、MADALINE

之前介绍的是单层自适应性网络,Hoff 还将 ADALINE 进行推广,推出了MADALINE即多层自适应性网络。实际上是由ADALINE 和AND 逻辑器组成的可对线性可分的数据进行划分。其中有一个问题,隐藏层的误差无法计算,因为其是多层,

image.png

因此Windrow 提出了一个需要微分的算法MRII用于解决多层网络的学习问题。

相关文章
|
机器学习/深度学习
普通卷积、分组卷积和深度分离卷积概念以及参数量计算
普通卷积、分组卷积和深度分离卷积概念以及参数量计算
1196 0
普通卷积、分组卷积和深度分离卷积概念以及参数量计算
|
28天前
|
机器学习/深度学习
深度学习笔记(十二):普通卷积、深度可分离卷积、空间可分离卷积代码
本文探讨了深度可分离卷积和空间可分离卷积,通过代码示例展示了它们在降低计算复杂性和提高效率方面的优势。
34 2
深度学习笔记(十二):普通卷积、深度可分离卷积、空间可分离卷积代码
|
7天前
|
机器学习/深度学习 计算机视觉 Ruby
【YOLOv11改进 - 注意力机制】iRMB: 倒置残差移动块,即插即用的轻量注意力
【YOLOv11改进 - 注意力机制】iRMB: 倒置残差移动块,即插即用的轻量注意力本文提出了一种新的轻量级密集预测模型EMO,结合高效的倒置残差块(IRB)和Transformer组件,设计了单残差元移动块(MMB)和倒置残差移动块(iRMB)。EMO在ImageNet-1K、COCO2017和ADE20K基准上表现出色,参数、效率和准确度达到良好平衡,尤其在iPhone14上运行速度比EdgeNeXt快2.8-4.0倍。
【YOLOv11改进 - 注意力机制】iRMB: 倒置残差移动块,即插即用的轻量注意力
|
1月前
|
机器学习/深度学习 算法 数据挖掘
稀疏促进动态模态分解(SPDMD)详细介绍以及应用
稀疏促进动态模态分解(SPDMD)结合了动态模态分解(DMD)的数学优雅性和稀疏优化技术,有效提取高维数据中的关键特征。SPDMD通过稀疏约束自动筛选出最重要模态,去除冗余信息,提升模型的可解释性和计算效率。该方法在流体动力学、图像处理、时间序列分析及金融数据等领域广泛应用,能够识别主要趋势、周期性模式及异常现象。SPDMD不仅提高了数据分析效率,还为各领域研究提供了强有力的工具。通过自动选择最相关的模态,SPDMD尤其适用于大规模数据集和实时应用。
57 4
|
6月前
|
机器学习/深度学习 算法 计算机视觉
YOLOv8改进-论文笔记】 AKConv(可改变核卷积):任意数量的参数和任意采样形状的即插即用的卷积
AKConv是一种可改变核卷积,旨在解决传统卷积的局限,包括固定大小的卷积窗口和卷积核尺寸。AKConv提供灵活的卷积核参数和采样形状,适应不同尺度特征。其创新点包括:1)支持任意大小和形状的卷积核;2)使用新算法确定初始采样位置;3)应用动态偏移调整采样位置;4)优化模型参数和计算效率。AKConv已应用于YOLOv8,提高网络性能。相关代码可在<https://github.com/CV-ZhangXin/AKConv>找到。
|
4月前
|
机器学习/深度学习 编解码 PyTorch
【YOLOv8改进】HWD: Haar小波降采样,用于语义分割的降采样模块,减少特征图的空间分辨率
YOLOv8专栏探讨了卷积网络的改进,特别是提出了一种名为HWD的基于Haar小波的下采样模块,用于语义分割,旨在保留更多空间信息。HWD结合了无损编码和特征表示学习,提高了模型性能并减少了信息不确定性。新度量标准FEI量化了下采样的信息保留能力。论文和代码可在提供的链接中找到。核心代码展示了如何在PyTorch中实现HWD模块。
|
6月前
LabVIEW连续采样与有限采样模式
LabVIEW连续采样与有限采样模式
240 0
|
编解码 算法 数据可视化
【多重信号分类】超分辨率测向方法——依赖于将观测空间分解为噪声子空间和源/信号子空间的方法具有高分辨率(HR)并产生准确的估计(Matlab代码实现)
【多重信号分类】超分辨率测向方法——依赖于将观测空间分解为噪声子空间和源/信号子空间的方法具有高分辨率(HR)并产生准确的估计(Matlab代码实现)
110 0
|
机器学习/深度学习 决策智能
矩阵分析 (一) 线性空间和线性变换
矩阵分析 (一) 线性空间和线性变换
190 0
|
6月前
|
机器学习/深度学习 算法 网络安全
【一起撸个DL框架】5 实现:自适应线性单元
5 实现:自适应线性单元🍇 1 简介 上一篇:【一起撸个DL框架】4 反向传播求梯度 上一节我们实现了计算图的反向传播,可以求结果节点关于任意节点的梯度。下面我们将使用梯度来更新参数,实现一个简单的自适应线性单元。
55 0
下一篇
无影云桌面