PySpark数据分析基础:pyspark.mllib.regression机器学习回归核心类详解(一)+代码详解

简介: PySpark数据分析基础:pyspark.mllib.regression机器学习回归核心类详解(一)+代码详解

前言

PySpark数据分析基础系列文章更新有一段时间了,其中环境搭建和各个组件部署都已经完成。借此征文活动我将继续更新Pyspark这一大块内容的主体部分,也是十分重要且比较难懂不易编程的部分。在从事大数据计算以及分析的这段历程中,陪伴我最多的也就是anaconda和Jupyter了,当然此次演示还是用到这些工具,文章紧接此系列的上篇文章内容。若将来想要从事数据挖掘和大数据分析的相关职业,不妨可以关注博主和订阅博主的一些专栏,我将承诺每篇文章将用心纂写长期维护,尽可能输出毕生所学结合如今先有案例项目和技术将每个知识点都讲明白清楚。


希望读者看完能够在评论区提出错误或者看法,博主会长期维护博客做及时更新。


虽然我们讲的是Pyspark MLlib某个片段内容,但是是整个系列的第一次讲述Spark MLlib,所以首先还是对整Spark做一个简要的概述。


一、Spark MLlib


MLlib构建在Spark之上,是一个可扩展的机器学习库,它提供了一组统一的高级API,帮助用户创建和调整实用的机器学习管道。MLBase分为四部分:MLlib、MLI、ML Optimizer和MLRuntime。


   ML Optimizer会选择它认为最适合的已经在内部实现好了的机器学习算法和相关参数,来处理用户输入的数据,并返回模型或别的帮助分析的结果;

   MLI 是一个进行特征抽取和高级ML编程抽象的算法实现的API或平台;

   MLlib是Spark实现一些常见的机器学习算法和实用程序,包括分类、回归、聚类、协同过滤、降维以及底层优化,该算法可以进行可扩充; MLRuntime 基于Spark计算框架,将Spark的分布式计算应用到机器学习领域。

PySpark可以直接调用spark几乎大部分的函数和接口,操作代码十分方便。根据机器学习的需要,spark有一整个机器学习的包可以调用,类似python的sklearn一样。调用相关函数即可实现对应功能,而且在分布式基础之上计算能力会更加卓越。


二、回归类


1.LabeledPoint


该类用于添加或者构建数据集测试非常好用,该类可以生成一条带有特征和标签的数据集。


函数语法:

LabeledPoint(label: float, features: Iterable[float])

参数说明:

  • label:接收int类型,指定数据的标签
  • features:可以接收pyspark.mllib.linalg.Vector或者是数组。

使用实例:

data = [
    LabeledPoint(0.0, [0.0, 1.0,2.0]),
    LabeledPoint(1.0, [1.0, 0.0,2.0]),
]


这样就创建了一个小型数据集,可以通过random加上循环构建出随机测试数据集。

2.LinearModel


生成一个具有系数向量和截距的线性模型。


函数语法:

LinearModel(weights: pyspark.mllib.linalg.Vector, intercept: float)

参数说明:

  • weights:接收pyspark.mllib.linalg.Vector或者是数组,指定权重。
  • intercept:接收float类型,为该模型计算的截距。

使用实例:

lrm = LinearModel([0.2,0.5,0.8],intercept=0.2)

这个函数没有子方法,实际运用起来也很少,几乎用处不大。


3.LinearRegressionModel


生成一个由最小二乘拟合得出的线性回归模型。python的线性拟合都是依据最小二乘法来拟合的。


函数语法:

LinearRegressionModel(weights: pyspark.mllib.linalg.Vector, intercept: float)

和线性模型的参数一样:


  • label:接收int类型,指定数据的标签
  • features:可以接收pyspark.mllib.linalg.Vector或者是数组。


但是该函数拥有三个子方法:

  • load(sc, path):登陆一个LinearRegressionModel模型。
  • predict(x):预测给定向量或包含自变量值的向量RDD的因变量值。
  • save(x):保存一个LinearRegressionModel模型。


load方法


load(sc: pyspark.context.SparkContext, path: str)

参数说明:


sc:输入指定的SparkContext。

path:输入指定的路径名称。

sameModel = LinearRegressionModel.load(sc, path)

predict方法


语法:

predict(x: Union[VectorLike, pyspark.rdd.RDD[VectorLike]]) → Union[float, pyspark.rdd.RDD[float]]


预测给定向量或包含自变量值的向量RDD的因变量值。


参数说明:


x:输入向量以及RDD数据或者是小数加上RDD数据

lrm = LinearRegressionModel([0.2],intercept=3)
lrm.predict([0.2])

511ae1f0273042aea27855ddf2542f58.png

save方法


语法:


save(sc: pyspark.context.SparkContext, path: str)


保存一个LinearRegressionModel模型。


4.LinearRegressionWithSGD


生成一个使用随机梯度下降训练无正则化的线性回归模型。


SGD的含义就是Stochastic Gradient Descent (SGD),随机梯度下降。该模型通过train方法训练。


train方法

classmethod train(data: pyspark.rdd.RDD[pyspark.mllib.regression.LabeledPoint],
                  iterations: int = 100, 
                  step: float = 1.0, 
                  miniBatchFraction: float = 1.0, 
                  initialWeights: Optional[VectorLike] = None,
                  regParam: float = 0.0,
                  regType: Optional[str] = None,
                  intercept: bool = False,
                  validateData: bool = True,
                  convergenceTol: float = 0.001) 
 → pyspark.mllib.regression.LinearRegressionModel

使用随机梯度下降(SGD)训练线性回归模型解决了最小二乘回归公式:

gif.gif

的均方误差。数据矩阵有n行,输入RDD保存A的行集合,每个行都有相应的右侧标签y。


参数说明:


data:接收类型为Pyspark.RDD。指定训练用到的数据集,可以是LabeledPoint的RDD。

iterations:接收类型为int,指定迭代次数。

step:接收类型为float,SGD中使用的阶跃参数,默认为1.0。

miniBatchFraction:接收类型为float,用于每次SGD迭代的数据部分,默认为1.0.

initialWeights:接收类型为pyspark.mllib.linalg.Vector,指定初始权重。

regParam:接收类型为float,为正则化参数。默认为0.0.

regType:接收类型为str,用于训练模型的正则化子类型。

使用l1正则化:“l1”

使用l2正则化:“l2”

若为None则表示无正则化(默认)

intercept:接收类型为bool,指示是否使用训练数据的增强表示(即是否激活偏差特征)。(默认值:False)

validateData:接收类型为bool,指示算法是否应在训练前验证数据。(默认值:True)

convergenceTol:接收类型为float,决定迭代终止的条件。(默认值:0.001)

data = [
    LabeledPoint(0.0, [0.0]),
    LabeledPoint(1.0, [1.0]),
    LabeledPoint(3.0, [2.0]),
    LabeledPoint(2.0, [3.0])
]
lrm = LinearRegressionWithSGD.train(sc.parallelize(data), iterations=10,initialWeights=np.array([1.0]))
lrm.predict(np.array([0.0]))

499e5d96d8a84b4eb29c6fffc65b8c03.png

同样化为SparseVector也是一样:

data = [
    LabeledPoint(0.0, SparseVector(1, {0: 0.0})),
    LabeledPoint(1.0, SparseVector(1, {0: 1.0})),
    LabeledPoint(3.0, SparseVector(1, {0: 2.0})),
    LabeledPoint(2.0, SparseVector(1, {0: 3.0}))
]
lrm = LinearRegressionWithSGD.train(sc.parallelize(data), iterations=10,initialWeights=np.array([1.0]))
lrm.predict(np.array([0.0]))

5c5f1ae0a7bd409da20b85cbd2d0bbaa.png

目录
相关文章
|
23天前
|
数据采集 移动开发 数据可视化
模型预测笔记(一):数据清洗分析及可视化、模型搭建、模型训练和预测代码一体化和对应结果展示(可作为baseline)
这篇文章介绍了数据清洗、分析、可视化、模型搭建、训练和预测的全过程,包括缺失值处理、异常值处理、特征选择、数据归一化等关键步骤,并展示了模型融合技术。
39 1
模型预测笔记(一):数据清洗分析及可视化、模型搭建、模型训练和预测代码一体化和对应结果展示(可作为baseline)
|
21天前
|
机器学习/深度学习 人工智能 算法
揭开深度学习与传统机器学习的神秘面纱:从理论差异到实战代码详解两者间的选择与应用策略全面解析
【10月更文挑战第10天】本文探讨了深度学习与传统机器学习的区别,通过图像识别和语音处理等领域的应用案例,展示了深度学习在自动特征学习和处理大规模数据方面的优势。文中还提供了一个Python代码示例,使用TensorFlow构建多层感知器(MLP)并与Scikit-learn中的逻辑回归模型进行对比,进一步说明了两者的不同特点。
52 2
|
24天前
|
JSON 测试技术 API
阿里云PAI-Stable Diffusion开源代码浅析之(二)我的png info怎么有乱码
阿里云PAI-Stable Diffusion开源代码浅析之(二)我的png info怎么有乱码
|
1月前
|
机器学习/深度学习 算法 API
【机器学习】正则化,欠拟合与过拟合(详细代码与图片演示!助你迅速拿下!!!)
【机器学习】正则化,欠拟合与过拟合(详细代码与图片演示!助你迅速拿下!!!)
|
2月前
|
机器学习/深度学习 SQL 数据可视化
业务类数据分析师
业务类数据分析师
32 2
|
3月前
|
供应链 数据挖掘 Serverless
【python】美妆类商品跨境电商数据分析(源码+课程论文+数据集)【独一无二】
【python】美妆类商品跨境电商数据分析(源码+课程论文+数据集)【独一无二】
【python】美妆类商品跨境电商数据分析(源码+课程论文+数据集)【独一无二】
|
3月前
|
供应链 数据可视化 数据挖掘
【2023年第十一届泰迪杯数据挖掘挑战赛】B题:产品订单的数据分析与需求预测 建模及python代码详解 问题一
本文详细介绍了第十一届泰迪杯数据挖掘挑战赛B题的解决方案,涵盖了对产品订单数据的深入分析、多种因素对需求量影响的探讨,并建立了数学模型进行未来需求量的预测,同时提供了Python代码实现和结果可视化的方法。
119 3
【2023年第十一届泰迪杯数据挖掘挑战赛】B题:产品订单的数据分析与需求预测 建模及python代码详解 问题一
|
3月前
|
机器学习/深度学习 数据采集 算法
机器学习到底是什么?附sklearn代码
机器学习到底是什么?附sklearn代码
|
2月前
|
机器学习/深度学习 人工智能 算法
探索人工智能:机器学习的基本原理与Python代码实践
【9月更文挑战第6天】本文深入探讨了人工智能领域中的机器学习技术,旨在通过简明的语言和实际的编码示例,为初学者提供一条清晰的学习路径。文章不仅阐述了机器学习的基本概念、主要算法及其应用场景,还通过Python语言展示了如何实现一个简单的线性回归模型。此外,本文还讨论了机器学习面临的挑战和未来发展趋势,以期激发读者对这一前沿技术的兴趣和思考。
|
3月前
|
机器学习/深度学习 数据采集 数据挖掘
【2023年第十一届泰迪杯数据挖掘挑战赛】B题:产品订单的数据分析与需求预测 建模及python代码详解 问题二
本文提供了第十一届泰迪杯数据挖掘挑战赛B题问题二的详细解题步骤,包括时间序列预测模型的建立、多元输入时间预测问题的分析、时间序列预测的建模步骤、改进模型的方法,以及使用Python进行SARIMA模型拟合和预测的具体实现过程。
66 1