一、什么多项式回归
多项式回归是线性回归的一种特殊情况,其中我们在数据上拟合了多项式方程,目标变量和自变量之间具有曲线关系。 在曲线关系中,目标变量的值相对于预测变量以不均匀的方式变化。
二、算法分析
首先我们看一次函数的解析式:
我们引入了两个变量,和,它的图像是一条直线:
之前我们用微分求出了这个函数的斜率和截距,但是从我们的数据点上来看,其实曲线比 直线拟合得更好。
我们将fθ(x)定义为二次函数,添加一个二次项,就能用它来表示这条曲线了。
或者我们用更高次次数的表达式也可以。这样就能表示更复杂的曲线了。
所以我们在不断尝试之后决定是什么样的函数,但是要注意,并不是函数次数越大,拟合得越好。次数过大,难免会出现过拟合的情况。首先我们先看加入这个新的函数。接下来我们写出更新表达式的推导方法。
和之前一样,设u = E(θ)、v = fθ(x),然后试着用 u 对 θ2偏微分,求出更新表达式。u 对 v 微分的部分是一样的,所以我们只要求 v 对 θ2 的微分就行了。
那么即使增加参数,比如有 θ3、θ4 等,我们依然可以用同样的方法求出它们的更新表达式,像这样增加函数中多项式的次数,然后再使用函数的分析方法就被称为多项式回归!
三、总结
多项式回归在原有的基础上引入了更高次的变量,我们要求出更高次参数的更新表达式,这一部分可以看之前写的梯度下降法更新参数。只要求出参数就能求得表达式了。