SiLU函数

简介: SiLU(Sigmoid Linear Unit)函数,也称为 Swish 函数,是一种常用于深度学习中的激活函数。它是由 Google 的研究人员提出的,旨在解决 ReLU(Rectified Linear Unit)函数的一些缺点,尤其是在深度网络的训练过程中。

SiLU 函数的定义

SiLU 函数的数学表达式如下:SiLU(x)=x⋅σ(x)

其中:

x 是输入值。
σ(x) 是 Sigmoid 函数,定义为:
σ(x)=11+e−x

SiLU 的特性

平滑性:SiLU 函数比 ReLU 更平滑,因此可以在训练过程中提供更平稳的梯度,避免了 ReLU 函数的死神经元问题(ReLU 函数在输入小于零时梯度为零,这可能导致某些神经元的更新停止)。
非线性:像 Sigmoid 和 Tanh 函数一样,SiLU 是非线性的,这使得它能够处理更复杂的模式。
输出范围:SiLU 的输出是非负的,并且随着输入的增大,输出逐渐增大。SiLU 输出的范围在 [0,+∞)之间,这与 ReLU 类似,但 SiLU 的增长方式比 ReLU 更平滑。
可微性:SiLU 函数在所有点都是可微的,这意味着它不会出现梯度消失问题,能够为深度神经网络提供更加稳定的训练。
SiLU vs ReLU vs Sigmoid

ReLU(Rectified Linear Unit):ReLU(x)=max⁡(0,x)
只对正输入有激活作用,负输入的梯度为 0,可能会导致神经元“死亡”。
Sigmoid:σ(x)=11+e−x
输出范围是 [0,1],通常用于二分类问题的输出层,但在深度神经网络中可能会出现梯度消失问题,导致学习效率较低。
SiLU:SiLU(x)=x⋅σ(x)
结合了 Sigmoid 和线性函数的特性,在深度学习中常被认为是对 ReLU 和 Sigmoid 的改进,能够避免梯度消失,并且在训练深层网络时有更好的性能。
SiLU 的优势

避免死神经元问题:
ReLU 的问题是当输入为负时,输出为零,且无法通过梯度更新,这可能导致“死神经元”现象,即某些神经元在训练过程中不再更新权重。而 SiLU 在负输入时也有非零的输出,使得所有神经元都可以参与训练,避免了这一问题。
平滑的梯度:
SiLU 的导数是平滑的,这意味着它提供了更连续的梯度,可以帮助更好地传播误差,尤其在深层神经网络中训练时,比 ReLU 和 Sigmoid 更稳定。
增加网络的表达能力:
与 ReLU 相比,SiLU 具有更多的非线性,使得它能够学习更复杂的特征。
SiLU 的导数

SiLU 的导数可以通过链式法则求得。首先,SiLU 函数的表达式是:SiLU(x)=x⋅σ(x)

然后,使用乘积的导数公式来求导:ddxSiLU(x)=ddx(x⋅σ(x))

应用乘积法则得到:ddxSiLU(x)=σ(x)+x⋅σ(x)⋅(1−σ(x))

因此,SiLU 的导数为:SiLU′(x)=σ(x)+x⋅σ(x)⋅(1−σ(x))

SiLU 函数的图形

SiLU 函数的图像比 ReLU 更为平滑,且对于负数输入也有非零输出。随着输入的增加,SiLU 的输出会逐渐增大,类似于线性增长。

SiLU 函数的应用

SiLU 函数已经在许多深度学习任务中取得了良好的表现,尤其是在一些复杂的任务(如图像分类、自然语言处理等)中,能够帮助神经网络更好地训练。许多现代的神经网络架构,如 BERT 和 ResNet 等,都采用了类似的激活函数。

在 PyTorch 中使用 SiLU

如果你使用 PyTorch,可以通过 torch.nn.SiLU() 或者直接使用 torch.sigmoid(x) * x 来实现 SiLU 激活函数。

import torch
import torch.nn as nn

定义 SiLU 激活函数

silu = nn.SiLU()

输入张量

x = torch.randn(5)

应用 SiLU 激活

output = silu(x)
print(output)
php
139 Bytes
© 菜鸟-创作你的创作
在 TensorFlow 中使用 SiLU

在 TensorFlow 中,SiLU 函数也可以通过 tf.keras.activations.silu() 来使用:

import tensorflow as tf

输入张量

x = tf.random.normal([5])

应用 SiLU 激活

output = tf.keras.activations.silu(x)
print(output)
php
123 Bytes
© 菜鸟-创作你的创作
总结

SiLU(Swish)是一个平滑且非线性的激活函数,结合了 Sigmoid 和 线性 的优点。它不仅避免了 ReLU 的死神经元问题,还能够提供更平滑的梯度传播,尤其适用于深度神经网络。随着深度学习模型的不断发展,SiLU 已经被越来越多的研究和工程实践所采用。
https://www.52runoob.com/archives/4732

目录
相关文章
|
7月前
|
机器学习/深度学习 自然语言处理 PyTorch
【笔记】激活函数SiLU和Swish
激活函数 SiLU 和 Swish 都是 深度学习 中用于神经网络中的非线性激活函数,旨在增强模型的表达能力和训练性能。实际上,SiLU(Sigmoid Linear Unit)和 Swish 本质上是同一个激活函数的两种不同名称。
546 0
|
机器学习/深度学习 人工智能 负载均衡
基于 NVIDIA Megatron-Core 的 MoE LLM 实现和训练优化
本文将分享阿里云人工智能平台 PAI 团队与 NVIDIA Megatron-Core 团队在 MoE (Mixture of Experts) 大型语言模型(LLM)实现与训练优化上的创新工作。
【推荐】排序模型的评价指标nDCG
nDCG(Normalized Discounted Cumulative Gain)归一化折损累计增益是一种用于评估排序模型性能的指标,它考虑了两个方面:排序的正确性和相关性的程度。
4164 0
|
7月前
|
安全 Linux 网络安全
Linux系统怎么设置允许root登录
在 Linux 系统中,允许 root 用户 通过 SSH 登录是通过修改 SSH 配置文件 /etc/ssh/sshd_config 中的 PermitRootLogin 参数来实现的。默认情况下,出于安全考虑,很多 Linux 发行版会禁用 root 用户的 SSH 登录。因此,你可以按照以下步骤来允许 root 用户通过 SSH 登录:
1715 0
|
11月前
|
机器学习/深度学习 算法
广义优势估计(GAE):端策略优化PPO中偏差与方差平衡的关键技术
广义优势估计(GAE)由Schulman等人于2016年提出,是近端策略优化(PPO)算法的核心理论基础。它通过平衡偏差与方差,解决了强化学习中的信用分配问题,即如何准确判定历史动作对延迟奖励的贡献。GAE基于资格迹和TD-λ思想,采用n步优势的指数加权平均方法,将优势函数有效集成到损失函数中,为策略优化提供稳定梯度信号。相比TD-λ,GAE更适用于现代策略梯度方法,推动了高效强化学习算法的发展。
1900 3
广义优势估计(GAE):端策略优化PPO中偏差与方差平衡的关键技术
|
机器学习/深度学习 自然语言处理 算法
《深度解析:全连接层—卷积神经网络中的关键纽带》
全连接层在卷积神经网络(CNN)中起着桥梁作用,将卷积层和池化层提取的局部特征整合为全局特征,实现分类或回归任务。每个神经元与前一层所有神经元相连,通过权重和偏置进行特征转换,并引入激活函数以增强非线性建模能力。尽管参数量大易导致过拟合,但可通过正则化、Dropout和批标准化等技术有效应对,从而提升模型性能。
1212 8
|
数据采集 人工智能 编解码
书生·万象InternVL 2.5:上海 AI Lab 开源的多模态大语言模型,超越了目前许多商业模型
书生·万象InternVL 2.5是由上海AI实验室OpenGVLab团队推出的开源多模态大语言模型系列。该模型在多模态理解基准(MMMU)上表现优异,超越了许多商业模型,适用于图像和视频分析、视觉问答、文档理解和多语言处理等多个领域。
1416 7
书生·万象InternVL 2.5:上海 AI Lab 开源的多模态大语言模型,超越了目前许多商业模型

热门文章

最新文章