「机器学习」逻辑回归

简介: Machine Learning-Logistic Regression

Machine Learning-Logistic Regression

逻辑回归基本推导过程

逻辑回归属于分类任务,是建立在线性回归的基础之上的,线性模型输出结果是负无穷到正无穷的连续值,所以需要一个激活函数,使得输入的值映射成「0,1」之间的概率值,这个激活函数就是Sigmod函数。

  • Sigmoid函数

$$ g\left ( z \right )=\frac{1}{1+e^{-z}} $$

sigmod

其中$z=\theta _{0}x_0+\theta _{1}x_{1}+...+\theta_ {n}x_{n}=\sum_{i=1}^{n}\theta _{i}x_{i}=\theta ^{T}x$

将线性函数$z =\theta ^{T} x$带入g(z)得预测函数$h_{0}\left ( x \right )$:

$$ h_{0}\left ( x \right )=g\left ( \theta ^{T} x\right )=\frac{1}{1+e^{-\theta ^{T}x}} $$

对于二分类任务(假设y值符合伯努利分布「二项分布」),标签1和0对应的概率值分别为:

$$ P\left ( y=1|x;\theta \right )=h_{0}\left ( x \right ) $$

$$ P\left ( y=0|x;\theta \right )=1-h_{0}\left ( x \right ) $$

整合成一个表达式即:

$$ P\left ( y|x;\theta \right )=(h{0}\left ( x \right ))^{y}(1-h{0}\left ( x \right ))^{1-y} $$

其中 y=1 或者 y=0
极大似然估计函数如下:

$$ L\left ( \theta \right )=\prod_{i=1}^{m}P\left ( y|x;\theta \right )=\prod_{i=1}^{m}(h{0}\left ( x \right ))^{y}(1-h{0}\left ( x \right ))^{1-y} $$

为方便计算,对该似然函数做对数即:

$$ l\left ( \theta \right )=logL\left ( \theta \right )=\sum_{i=1}^{m}\left ( y_{i}logh_{0}\left ( x_{i} \right ) +\left ( 1-y_{i} \right )log\left ( 1-h_{0\left ( x_{i} \right )} \right )\right ) $$

损失函数可以最小化负的似然函数得到,损失函数即为:

$$ J\left ( \theta \right )=-\frac{1}{m}l\left ( \theta \right )​ $$

各种求导化(过程略去了)简得:

$$ \frac{\delta J\left ( \theta \right ) }{\delta \theta _{j}}=\frac{1}{m}\sum_{i=1}^{m}\left ( h_{0}\left ( x_{i} \right )-y_{i} \right )x_{i}^{j} $$

每次参数按照学习率$\alpha$更新,即:

$$ \theta _{j}=\theta _{j}-\alpha \frac{1}{m}\sum_{i=1}^{m}\left ( h_{0\left ( x_{i} \right )}-y_{i} \right )x_{i}^{j} $$

解决多分类问题softmax:

$$ h_{0}\left ( x^{\left ( i \right )} \right )=\begin{bmatrix} p\left ( y^{i}=1|x^{\left ( i \right )};\theta \right )\\ p\left ( y^{i}=2|x^{\left ( i \right )};\theta \right )\\ ...\\ p\left ( y^{i}=k|x^{\left ( i \right )};\theta \right ) \end{bmatrix}=\frac{1}{\sum_{j=1}^{k}e^{\theta _{j}^{T}x^{\left ( i\right )}}}\begin{bmatrix} e^{\theta _{1}^{T}x^{\left ( i\right )}}\\ e^{\theta _{2}^{T}x^{\left ( i\right )}}\\ ...\\ e^{\theta _{k}^{T}x^{\left ( i\right )}} \end{bmatrix} $$

为了防止过拟合,也可以同线性回归一样加入正则化惩罚项。

目录
相关文章
|
机器学习/深度学习 人工智能 自然语言处理
机器学习之线性回归与逻辑回归【完整房价预测和鸢尾花分类代码解释】
机器学习之线性回归与逻辑回归【完整房价预测和鸢尾花分类代码解释】
|
机器学习/深度学习 数据采集 算法
Python用逻辑回归、决策树、SVM、XGBoost 算法机器学习预测用户信贷行为数据分析报告
Python用逻辑回归、决策树、SVM、XGBoost 算法机器学习预测用户信贷行为数据分析报告
|
机器学习/深度学习 算法 知识图谱
【机器学习】逻辑回归原理(极大似然估计,逻辑函数Sigmod函数模型详解!!!)
【机器学习】逻辑回归原理(极大似然估计,逻辑函数Sigmod函数模型详解!!!)
|
机器学习/深度学习 存储 自然语言处理
【机器学习】基于逻辑回归的分类预测
【机器学习】基于逻辑回归的分类预测
|
机器学习/深度学习 算法
【机器学习】逻辑回归介绍(逻辑回归应用场景,原理,损失及优化详解!!!)
【机器学习】逻辑回归介绍(逻辑回归应用场景,原理,损失及优化详解!!!)
|
机器学习/深度学习 人工智能 算法
【人工智能】机器学习、分类问题和逻辑回归的基本概念、步骤、特点以及多分类问题的处理方法
机器学习是人工智能的一个核心分支,它专注于开发算法,使计算机系统能够自动地从数据中学习并改进其性能,而无需进行明确的编程。这些算法能够识别数据中的模式,并利用这些模式来做出预测或决策。机器学习的主要应用领域包括自然语言处理、计算机视觉、推荐系统、金融预测、医疗诊断等。
451 1
|
机器学习/深度学习 算法
【机器学习】SVM面试题:简单介绍一下SVM?支持向量机SVM、逻辑回归LR、决策树DT的直观对比和理论对比,该如何选择?SVM为什么采用间隔最大化?为什么要将求解SVM的原始问题转换为其对偶问题?
支持向量机(SVM)的介绍,包括其基本概念、与逻辑回归(LR)和决策树(DT)的直观和理论对比,如何选择这些算法,SVM为何采用间隔最大化,求解SVM时为何转换为对偶问题,核函数的引入原因,以及SVM对缺失数据的敏感性。
384 3
|
机器学习/深度学习 算法
【机器学习】支持向量机SVM、逻辑回归LR、决策树DT的直观对比和理论对比,该如何选择(面试回答)?
文章对支持向量机(SVM)、逻辑回归(LR)和决策树(DT)进行了直观和理论上的对比,并提供了在选择这些算法时的考虑因素,包括模型复杂度、损失函数、数据量需求、对缺失值的敏感度等。
504 1
|
机器学习/深度学习
【机器学习】逻辑回归LR的推导及特性是什么,面试回答?
逻辑回归(LR)的推导和特性的详细解释,包括其作为二分类模型的基本原理、损失函数(对数损失函数),以及决策树的特性,如不需要先验假设、高效性、易解释性、对缺失值的不敏感性,以及对冗余属性的鲁棒性。
234 1
|
机器学习/深度学习 数据采集 人工智能

热门文章

最新文章