工业蒸汽量预测比赛全流程解析(附详细Python代码)

本文涉及的产品
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
云原生网关 MSE Higress,422元/月
简介: 本文所采用的数据集来自于阿里云天池比赛,描述了整个数据挖掘的过程及详细代码,共尝试了5套机器学习算法

采用的数据集情况

本文所采用的数据集来自于阿里云天池比赛,比赛的链接地址为:阿里云天池工业蒸汽量预测比赛链接
其中所下载的数据集包括两个txt文件:zhengqi_train.txt(训练集)和zhengqi_test.txt(测试集)

数据导入

因本文的主要目的是以介绍整个挖掘流程为主,因此采用根据需要逐步导入所需要的库的形式,以下先导入numpy和pandas两个库。

import numpy as np
import pandas as pd

使用pandas导入已经预先下载并存放在本地的训练集和测试集,结合本次的数据集为txt文件,并且数据之间的分隔符为'\t',因此导入文件的代码如下:

df_train=pd.read_csv(r'D:\zhengqi\zhengqi_train.txt',sep='\t')
df_test=pd.read_csv(r'D:\zhengqi\zhengqi_test.txt',sep='\t')

数据概览

使用head查看训练集和测试集前5条数据的情况:

df_train.head()

image.png

从图中可以看到,训练集总共有39列,其中包括V0至V37共38个特征,target为本次的预测标签值。

df_test.head()

image.png

测试集总共有38列,其中包括V0至V37共38个特征,没有target,本次的预测就是需要根据训练完成的模型,提交测试集的target值。

使用info查看训练集和测试集的整体情况如下:

df_train.info()

image.png


image.png


可以看到,训练集的数据总数为2888条,因为Python默认的index排序是从0开始,所以index显示为0至2887条。non-null代表数据中没有缺失值,因此不需要对于数据进行缺失值填充;float64(39)代表39列数据全部为浮点形式数值数据,不需要进行格式上的转换。

df_test.info()

image.png


image.png


测试集的数据总数为1925条,index序号为0至1924条。测试集中的数据同样没有缺失值;float64(38)代表38列数据全部为浮点形式数值数据,不需要进行格式上的转换。因此,训练集数据的总体情况和测试集数据是一致的。

特征工程

加载接下去要使用的两个库,matplotlib和seaborn都是Python中常用的可视化工具库。

import matplotlib.pyplot as plt
import seaborn as sns

用以下代码提取出训练集中所有的特征标签,方便之后使用:

#提取df_train中的特征标签,并将起转换成列表形式
feature_list=list(df_train.columns)
#为方便之后使用,去掉列表中被一并提取出来的target标签,确保仅留特征标签
feature_list.remove('target')
#显示特征标签列表
feature_list

feature_list即特征标签列表如下:

['V0','V1','V2','V3','V4','V5','V6','V7','V8','V9','V10','V11','V12','V13','V14','V15','V16','V17', 'V18', 'V19', 'V20', 'V21', 'V22', 'V23', 'V24','V25', 'V26', 'V27', 'V28', 'V29', 'V30', 'V31',
'V32', 'V33', 'V34', 'V35', 'V36', 'V37']

数据分布情况核实

首先需要核实的是训练集的各特征数据分布情况是否和测试集一致,当两者出现较大差异时,将会导致模型失效的情况,可视化对比过程如以下代码所示:

#对于特征标签列表feature_list中的特征标签进行操作,逐个绘制单变量数据
分布图,训练集和测试集的相同特征分布情况绘制在同一张图上以方便比对
for i in feature_list:
    sns.distplot(df_train[{i}])
    sns.distplot(df_test[{i}])
    plt.title(i)
    plt.show()

对于特征数较多的数据集,采用subplot方式绘制各类图是更好的选择,本文因为特征数并不算太多,为了更清晰的进行可视化展现,采用了一个for循环进行逐幅绘制的方式。

从V0到V37,总共生成了38幅单变量数据分布图,其中蓝色的是某特征训练集的数据分布情况,黄色的是测试集的数据分布情况。根据这38幅图,可以判断训练集和测试集各个特征的数据分布是否一致。以下选取典型的4幅作说明:

image.png


训练集和测试集的V0特征数据分布一致


image.png


训练集和测试集的V1特征数据分布一致


image.png


训练集和测试集的V5特征数据分布不一致


image.png


训练集和测试集的V17特征数据分布不一致


理想状态下,针对同一特征,训练集的数据分布曲线应该和测试集的数据分布曲线完全一致,但是这在实际过程中并不多见。如V0和V1两个特征的分布图可以发现,虽然训练集和测试集的数据分布情况略有差异,但仍然可以认为是分布情况一致的。而V5和V17特征图清晰的反映了数据分布不一致的情况。

同时在训练集和测试集中将数据分布不一致的特征去除,代码如下:

df_train=df_train[['V0','V1','V3','V4','V8','V10','V12','V15','V16','V18','V24','V25','V26','V28','V29','V30','V31','V32','V33','V34','V36','target']]
df_test=df_test[['V0','V1','V3','V4','V8','V10','V12','V15','V16','V18','V24','V25','V26','V28','V29','V30','V31','V32','V33','V34','V36']]

因为训练集和测试集的特征经过了筛选都发生了变化,为了方便之后的操作,重新提取出训练集中所有的特征标签,更新特征标签列表feature_list:

#提取df_train中的特征标签,并将起转换成列表形式
feature_list=list(df_train.columns)
#为方便之后使用,去掉列表中被一并提取出来的target标签,确保仅留特征标签
feature_list.remove('target')
#显示特征标签列表
feature_list

更新后的特征标签列表feature_list如下:

['V0','V1','V3','V4','V8','V10','V12','V15','V16','V18','V24','V25','V26','V28','V29','V30','V31','V32','V33','V34','V36']

相关性分析

对于训练集进行相关性分析,所采用的方法为计算皮尔逊相关系数,Python中可以直接在数据集上采用corr的方法,默认的相关系数计算方式就是皮尔逊相关系数。

df_train.corr()

image.png


本文的案例我们只分析各特征标签与预测标签(target)之间的相关性,查看上表的最后一列相关系数计算结果,相关系数的绝对值大于0.5的为强相关性,小于0.5的为弱相关性,0附近的为没有相关性,系数为正代表正相关,系数为负代表负相关。

以可视化方法绘制特征标签与预测标签(target)的散点图,与相关系数的计算结果进行相互校对:

for i in feture_list:
    sns.scatterplot(df_train[f'{i}'],df_train['target'])
    plt.show()

在生成的所有散点图中挑选几幅典型的图来说明不同的相关系数下,散点图的大致形状:

image.png


相关系数0.87,强相关性


image.png


相关系数0.87,强相关性


image.png


相关系数0.6,强相关性


image.png


相关系数0.15,无相关性


image.png


相关系数0.17,无相关性


以0.5为界限,同时在训练集和测试集中去除相关系数绝对值低于0.5的特征,确保被输入模型进行训练的特征与预测目标值有较强的相关性。

df_train=df_train[['V0','V1','V3','V4','V8','V12','V16','V31','target']]
df_test=df_test[['V0','V1','V3','V4','V8','V12','V16','V31']]

因训练集和测试集的特征再次经过筛选,因此再次更新特征标签列表feature_list:

#提取df_train中的特征标签,并将起转换成列表形式
feature_list=list(df_train.columns)
#为方便之后使用,去掉列表中被一并提取出来的target标签,确保仅留特征标签
feature_list.remove('target')
#显示特征标签列表
feature_list

更新后的特征标签列表feature_list如下:

['V0','V1','V3','V4','V8','V12','V16','V31']

正态分布检验

对于完成进一步筛选的数据集做正态分布检验,以确定是否需要进一步将数据尽可能转换成正态分布的形式,本文同样同时采用指标计算的方法和可视化的方法来同时进行正态分布检验。

导入正态分布检验所需要用到的库:

from scipy import stats

首先检验各个特征中数据的偏度,偏度定义中包括正态分布(偏度=0),右偏分布(也叫正偏分布,其偏度>0),左偏分布(也叫负偏分布,其偏度<0)。

for i in feture_list:
    skew = stats.skew(df_train[f'{i}'])
    print(f'the skew value of feture {i} is {skew}')

image.png


根据偏度的检验结果,各个特征的数据都为左偏,但是总体都满足正态分布。之后检验各个特征中数据的峰度。若峰度≈0,分布的峰态服从正态分布;若峰度>0,分布的峰态陡峭(高尖);若峰度<0,分布的峰态平缓(矮胖)。

for i in feture_list:
    kurtosis = stats.kurtosis(df_train[f'{i}'])
    print(f'the kurtosis value of feture {i} is {kurtosis}')

image.png


根据偏度的检验结果,各特征的数据总体都满足正态分布。采用可视化的方法对于指标的计算结果进行确认,结果如下:

image.png


左偏,基本满足正态分布


image.png


左偏,基本满足正态分布


image.png


峰度偏矮,基本满足正态分布


image.png


左偏,基本满足正态分布


image.png


左偏,基本满足正态分布


image.png


左偏,基本满足正态分布


image.png


左偏,基本满足正态分布


image.png


左偏,基本满足正态分布


可视化的检验结果与指标检验结果一致,因此正态分布检验的结论为:各特征数据基本符合正态分布,本文后续不对数据进行正态分布转换处理。

数据集拆分

因为本文的数据来自比赛,因此测试集单独提供,测试集的预测结果作为比赛的评定指标。对于训练集进一步拆分出交叉验证集以判断模型的预测效果,同时确保交叉验证集的数据与训练集数据完全独立:

from sklearn.model_selection import train_test_split
df_train_value, df_vali_value, df_train_target, df_vali_target=train_test_split(df_train_value, df_train_target, test_size=0.25,random_state=1)

拆分完的数据集如下所示:

df_train_value:训练集特征数据集(总数据的75%)

df_train_target:训练集的预测目标数据(总数据的75%)

df_vali_value:交叉验证集特征数据集(总数据的25%)

df_vali_target:交叉验证集的预测目标数据(总数据的25%)

模型训练及检验

对于df_train_value,df_train_target,df_vali_value,df_vali_target的index进行重置,确保所有数据都从第0条开始排序:

df_train_value=df_train_value.reset_index(drop=True)
df_vali_value=df_vali_value.reset_index(drop=True)
df_train_target=df_train_target.reset_index(drop=True)
df_vali_target=df_vali_target.reset_index(drop=True)

对重置完成的各个数据集,将数据转换成矩阵形式供后续使用:

df_train_value=np.array(df_train_value)
df_vali_value=np.array(df_vali_value)
df_train_target=np.array(df_train_target)
df_vali_target=np.array(df_vali_target)

加载验证指标MSE:

from sklearn.metrics import mean_squared_error

算法1:XGBoost

建立模型并进行训练:

import xgboost as xgb
model_xgb=xgb.XGBRegressor(max_depth=5, learning_rate=0.1, n_estimators=160, silent=True, objective='reg:linear')
model_xgb.fit(df_train_value,df_train_target)

对于交叉验证集特征数据集df_vali_value进行预测:

predict_xgb=model_xgb.predict(df_vali_value)

将预测结果及交叉验证集的预测目标数据对比进行指标验证:

mean_squared_error(df_vali_target,predict_xgb)

在未进行深度调参的情况下,采用XGBoost进行预测得出的MSE为0.128。在此基础上抽取交叉验证集的100组数据采用可视化手段直观检验预测效果:

plt.plot(df_vali_target[0:101])
plt.plot(predict_xgb[0:101])

image.png

算法2:GBDT Regression

建立模型并进行训练:

from sklearn.ensemble import GradientBoostingRegressor
model_gbdt=GradientBoostingRegressor(
  loss='ls'
, learning_rate=0.03
, n_estimators=500
, subsample=1
, min_samples_split=2
, min_samples_leaf=1
, max_depth=3
, init=None
, random_state=None
, max_features=None
, alpha=0.9
, verbose=0
, max_leaf_nodes=None
, warm_start=False
)
model_gbdt.fit(df_train_value,df_train_target)

对于交叉验证集特征数据集df_vali_value进行预测:

predict_gbdt=model_gbdt.predict(df_vali_value)

将预测结果及交叉验证集的预测目标数据对比进行指标验证:

mean_squared_error(df_vali_target,predict_gbdt)

在未进行深度调参的情况下,采用GBDT进行预测得出的MSE为0.13。在此基础上抽取交叉验证集的100组数据采用可视化手段直观检验预测效果:

plt.plot(df_vali_target[0:101])
plt.plot(predict_gbdt[0:101])

image.png

算法3:Random Forests

建立模型并进行训练:

from sklearn.ensemble import RandomForestRegressor
model_RF=RandomForestRegressor(n_estimators=200, random_state=0)

对于交叉验证集特征数据集df_vali_value进行预测:

predict_RF=model_RF.predict(df_vali_value)

将预测结果及交叉验证集的预测目标数据对比进行指标验证:

mean_squared_error(df_vali_target,predict_RF)

在未进行深度调参的情况下,采用Random Forests进行预测得出的MSE为0.123。在此基础上抽取交叉验证集的100组数据采用可视化手段直观检验预测效果:

plt.plot(df_vali_target[0:101])
plt.plot(predict_RF[0:101])

image.png

算法4:Bayesian Linear Regression

建立模型并进行训练:

from sklearn import linear_model
model_BR=linear_model.BayesianRidge()
model_BR.fit(df_train_value,df_train_target)

对于交叉验证集特征数据集df_vali_value进行预测:

predict_BR=model_BR.predict(df_vali_value)

将预测结果及交叉验证集的预测目标数据对比进行指标验证:

mean_squared_error(df_vali_target,predict_BR)

采用Bayesian Linear Regression进行预测得出的MSE为0.125。在此基础上抽取交叉验证集的100组数据采用可视化手段直观检验预测效果:

plt.plot(df_vali_target[0:101])
plt.plot(predict_BR[0:101])

image.png

算法5:Linear Regression

建立模型并进行训练:

from sklearn.linear_model import LinearRegression
model_LR=LinearRegression()
model_LR.fit(df_train_value,df_train_target)

对于交叉验证集特征数据集df_vali_value进行预测:

predict_LR=model_LR.predict(df_vali_value)

将预测结果及交叉验证集的预测目标数据对比进行指标验证:

mean_squared_error(df_vali_target,predict_LR)

采用Linear Regression进行预测得出的MSE为0.125。在此基础上抽取交叉验证集的100组数据采用可视化手段直观检验预测效果:

plt.plot(df_vali_target[0:101])
plt.plot(predict_LR[0:101])

image.png

测试集预测

检测测试集状态是否正常:

df_test.head()

image.png

df_test.info()

image.png


将测试集转换为矩阵形式:

df_test=np.array(df_test)

采用MSE指标最低的模型进行预测,这里采用Random Forests算法模型:

predict_test=model_RF.predict(df_test)

制作提交文件完成实验

按提交要求将预测结果predict_test作为新的一列插入测试集zhengqi_test.txt,标签为target:

test_submit=pd.read_csv(r'D:\天池\工业蒸汽量预测\zhengqi_test.txt',sep='\t')
test_submit['target']=predict_test

通过头五组数据查看提交文件的状态:

test_submit.head()

image.png

目录
相关文章
|
14天前
|
自然语言处理 搜索推荐 数据安全/隐私保护
鸿蒙登录页面好看的样式设计-HarmonyOS应用开发实战与ArkTS代码解析【HarmonyOS 5.0(Next)】
鸿蒙登录页面设计展示了 HarmonyOS 5.0(Next)的未来美学理念,结合科技与艺术,为用户带来视觉盛宴。该页面使用 ArkTS 开发,支持个性化定制和无缝智能设备连接。代码解析涵盖了声明式 UI、状态管理、事件处理及路由导航等关键概念,帮助开发者快速上手 HarmonyOS 应用开发。通过这段代码,开发者可以了解如何构建交互式界面并实现跨设备协同工作,推动智能生态的发展。
111 10
鸿蒙登录页面好看的样式设计-HarmonyOS应用开发实战与ArkTS代码解析【HarmonyOS 5.0(Next)】
|
19天前
|
数据采集 JSON API
如何利用Python爬虫淘宝商品详情高级版(item_get_pro)API接口及返回值解析说明
本文介绍了如何利用Python爬虫技术调用淘宝商品详情高级版API接口(item_get_pro),获取商品的详细信息,包括标题、价格、销量等。文章涵盖了环境准备、API权限申请、请求构建和返回值解析等内容,强调了数据获取的合规性和安全性。
|
17天前
|
数据挖掘 vr&ar C++
让UE自动运行Python脚本:实现与实例解析
本文介绍如何配置Unreal Engine(UE)以自动运行Python脚本,提高开发效率。通过安装Python、配置UE环境及使用第三方插件,实现Python与UE的集成。结合蓝图和C++示例,展示自动化任务处理、关卡生成及数据分析等应用场景。
77 5
|
30天前
|
存储 缓存 Python
Python中的装饰器深度解析与实践
在Python的世界里,装饰器如同一位神秘的魔法师,它拥有改变函数行为的能力。本文将揭开装饰器的神秘面纱,通过直观的代码示例,引导你理解其工作原理,并掌握如何在实际项目中灵活运用这一强大的工具。从基础到进阶,我们将一起探索装饰器的魅力所在。
|
1月前
|
Android开发 开发者 Python
通过标签清理微信好友:Python自动化脚本解析
微信已成为日常生活中的重要社交工具,但随着使用时间增长,好友列表可能变得臃肿。本文介绍了一个基于 Python 的自动化脚本,利用 `uiautomator2` 库,通过模拟用户操作实现根据标签批量清理微信好友的功能。脚本包括环境准备、类定义、方法实现等部分,详细解析了如何通过标签筛选并删除好友,适合需要批量管理微信好友的用户。
51 7
|
2月前
|
XML 数据采集 数据格式
Python 爬虫必备杀器,xpath 解析 HTML
【11月更文挑战第17天】XPath 是一种用于在 XML 和 HTML 文档中定位节点的语言,通过路径表达式选取节点或节点集。它不仅适用于 XML,也广泛应用于 HTML 解析。基本语法包括标签名、属性、层级关系等的选择,如 `//p` 选择所有段落标签,`//a[@href=&#39;example.com&#39;]` 选择特定链接。在 Python 中,常用 lxml 库结合 XPath 进行网页数据抓取,支持高效解析与复杂信息提取。高级技巧涵盖轴的使用和函数应用,如 `contains()` 用于模糊匹配。
|
2月前
|
测试技术 开发者 Python
使用Python解析和分析源代码
本文介绍了如何使用Python的`ast`模块解析和分析Python源代码,包括安装准备、解析源代码、分析抽象语法树(AST)等步骤,展示了通过自定义`NodeVisitor`类遍历AST并提取信息的方法,为代码质量提升和自动化工具开发提供基础。
68 8
|
1月前
|
PHP 开发者 容器
PHP命名空间深度解析:避免命名冲突与提升代码组织####
本文深入探讨了PHP中命名空间的概念、用途及最佳实践,揭示其在解决全局命名冲突、提高代码可维护性方面的重要性。通过生动实例和详尽分析,本文将帮助开发者有效利用命名空间来优化大型项目结构,确保代码的清晰与高效。 ####
31 1
|
1月前
|
人工智能 数据可视化 数据挖掘
探索Python编程:从基础到高级
在这篇文章中,我们将一起深入探索Python编程的世界。无论你是初学者还是有经验的程序员,都可以从中获得新的知识和技能。我们将从Python的基础语法开始,然后逐步过渡到更复杂的主题,如面向对象编程、异常处理和模块使用。最后,我们将通过一些实际的代码示例,来展示如何应用这些知识解决实际问题。让我们一起开启Python编程的旅程吧!
|
30天前
|
存储 数据采集 人工智能
Python编程入门:从零基础到实战应用
本文是一篇面向初学者的Python编程教程,旨在帮助读者从零开始学习Python编程语言。文章首先介绍了Python的基本概念和特点,然后通过一个简单的例子展示了如何编写Python代码。接下来,文章详细介绍了Python的数据类型、变量、运算符、控制结构、函数等基本语法知识。最后,文章通过一个实战项目——制作一个简单的计算器程序,帮助读者巩固所学知识并提高编程技能。

推荐镜像

更多