开发者社区> 问答> 正文

为什么l1和l2正则化可以降低过拟合,本质原因是什么?

已解决

为什么l1和l2正则化可以降低过拟合,本质原因是什么?

展开
收起
游客gaiketk6mpmke 2022-04-01 16:23:15 640 0
1 条回答
写回答
取消 提交回答
  • 推荐回答

    过拟合现象有多种解释,经典的是从 bias-variance 角度来解释,这也是最常用的解释,正则化能够增大偏差但是降低方差

    PAC-learning泛化界解释:

    • 正则化降低了模型的拟合能力,使得模型结构变得更加简单,导致了模型的VC维下降,根据PAC的期望误差与风险误差的关系公式(西瓜书上有),一般情况下,VC维越小则二者越接近。(太过理论,可以pass了)
    2022-04-01 18:53:44
    赞同 展开评论 打赏
问答地址:
问答排行榜
最热
最新

相关电子书

更多
理解过拟合 立即下载
展心展力MetaApp:基于DeepRec的稀疏模型训练实践 立即下载
纯干货 | 机器学习中梯度下降法的分类及对比分析 立即下载

相关实验场景

更多