RingoHikari_个人页

个人头像照片 RingoHikari
个人头像照片
0
1
0

个人介绍

暂无个人介绍

擅长的技术

获得更多能力
通用技术能力:

暂时未有相关通用技术能力~

云产品技术能力:

暂时未有相关云产品技术能力~

阿里云技能认证

详细说明
暂无更多信息
暂无更多信息
正在加载, 请稍后...
暂无更多信息
  • 回答了问题 2020-01-12

    请问人工神经网络中为什么ReLu要好过于tanh和sigmoid function?

    激活函数是为了增加非线性因素, 但tanh和sigmoid到训练末尾会有导数趋于0的情况, 相当于限制了模型的优化上限. ReLU有非线性, 大于0的时候导数为1, 就大概率避免了tanh一样的梯度消失. ReLU的非线性是靠(0,0)点的那一折, 把所有(负值, 0)的点都当作(0,0)点训练, 有点反直觉, 转变的也很硬, 最难受的是万一某个神经元值一直是负值, 经过ReLU永远是0, 有没有它没区别了, 所以会有各种各样的改进ReLU.
    踩0 评论0
正在加载, 请稍后...
滑动查看更多
正在加载, 请稍后...
暂无更多信息