Python | K折交叉验证的参数优化的决策树回归(DT Regression)预测及可视化算法

简介: 本教程介绍基于Python的决策树回归模型,结合K折交叉验证与贝叶斯、随机、网格搜索三种参数优化方法,实现数据预测与可视化,适用于多领域回归分析,含完整代码与数据。

Python | K折交叉验证的参数优化的决策树回归(DT Regression)预测及可视化算法

立个flag,这是未来一段时间打算做的Python教程,敬请关注。

1 数据及应用领域

我的程序中给出数据data.xlsx(代码及数据见文末),10 列特征值,1 个目标值,适用于各行各业回归预测算法的需求,其中出图及数据自动保存在当前目录,设置的训练集与预测集的比例为 80%:20%。

一、地球科学与环境科学

  • 遥感反演:利用多源遥感数据预测水体深度、土壤湿度、植被指数、叶面积指数等。
  • 气象与气候研究:预测降水量、气温、风速、风向等连续气象变量。
  • 水文与水资源管理:河流流量、地下水位、径流量预测。
  • 环境污染监测:空气质量指数、PM2.5/PM10浓度、重金属污染水平预测。
  • 地质与矿业:预测矿区地表沉降、地裂缝发展趋势,或矿产储量评估。

二、生物学与医学

  • 生态学:预测物种分布密度、群落生物量或生态环境因子变化。
  • 公共卫生:基于环境、生活方式或基因组数据预测疾病风险或血液生化指标。
  • 医学影像分析:预测器官或病灶体积、组织属性、功能指标。

三、工程与物理科学

  • 材料科学:预测材料性能,如强度、硬度、导热性、弹性模量
  • 土木与结构工程:预测建筑物或桥梁的应力、位移、寿命周期。
  • 控制系统与信号处理:连续控制变量预测、信号功率或系统状态预测。

四、经济与社会科学

  • 经济预测:股价、GDP、通货膨胀率、消费指数预测。
  • 市场分析:销售额、客户需求、产品价格预测。
  • 社会行为:人口增长、流动性、社会指标预测。

五、数据科学与机器学习方向

  • 时间序列预测:股票价格、气象指标、传感器数据。
  • 多变量因果建模:分析各特征对连续目标变量的影响。
  • 特征重要性解释:结合SHAP、LIME等方法揭示变量贡献。

2 算法理论基础

在众多回归模型中,决策树回归(Decision Tree Regression, DT)是一种结构清晰、逻辑直观、可解释性极强的方法。它像一套不断分裂的规则体系,通过一步步划分数据空间,实现对连续变量的预测。

🌟 一、决策树回归是什么?

决策树回归是一种通过“逐层分裂特征空间”来学习数据模式的模型。

模型从根节点开始,根据某个特征的某个阈值,把样本分成两部分,然后继续向下分裂,直到树长成。

通俗来说:

它不是画一条线来拟合关系,而是把数据切成许多小区域,每个区域给出一个预测值。

🌟 二、它是如何做预测的?

决策树回归通过不断询问简单的问题来完成预测,例如:

  • “这个特征值是否大于某个阈值?”
  • “属于左子树还是右子树?”

当样本从根节点一路走到某个叶节点时,这个叶节点的平均值就是预测结果。

这一过程非常直观,因此决策树的解释性极强。

🌟 三、为什么决策树能处理非线性关系?

决策树不依赖任何函数形式,也不假设特征与结果之间呈线性关系。

它通过多次分裂,可以构建任意形状的函数结构:

  • 阶梯型
  • 分段型
  • 非线性拐点
  • 不规则区域

这让决策树在面对复杂、非线性数据时,也能轻松拟合。

🌟 四、决策树的优点:清晰、可解释、灵活

决策树回归有几个明显优势:

  • 结构透明:可以可视化为一棵树
  • 可解释性强:每个规则都可理解
  • 支持非线性:分段拟合能捕捉复杂关系
  • 无需特征归一化
  • 对异常值不敏感
  • 适用于混合类型特征

这让它成为非常受欢迎的基础模型。

🌟 五、适用场景

由于简单、灵活且易解释,决策树回归常用于:

  • 非线性关系建模
  • 需要基于规则解释预测结果的任务
  • 含大量类别或混合类型特征的数据集
  • 初步建模或构建 baseline
  • 数据探索阶段,理解特征影响方式

它是许多集成模型(如随机森林、梯度提升树)的核心基石。

3 其他图示

🎲 一、特征值相关性热图

特征值相关性热图用于展示各特征之间的相关强弱,通过颜色深浅体现正负相关关系,帮助快速识别冗余特征、强相关特征及可能影响模型稳定性的变量,为后续特征选择和建模提供参考。

🎲 二、散点密度图

散点密度图通过颜色或亮度反映点的聚集程度,用于展示大量样本的分布特征。相比普通散点图,它能更直观地呈现高密度区域、异常点及整体趋势,常用于回归分析与模型评估。以下为训练集和测试集出图效果。

🎲 三、贝叶斯搜索参数优化算法及示意图

🌟 1. 先构建一个“参数-效果”的概率模型

贝叶斯优化会根据每一次调参的表现,持续更新一份“这个参数组合大概率能获得更好效果”的认知。

这份认知由一个代理模型承担,通常是高斯过程或树结构模型。它不像网格搜索那样盲目,而是先学、再试

🌟 2. 通过“探索”与“利用”平衡选点

贝叶斯优化每次选新的参数时都会权衡:

  • 探索:去试试没探索过的区域,可能藏着宝贝
  • 利用:去当前最可能效果最好的区域,稳扎稳打 这种带策略的试验方式,让调参过程既高效又不容易错过最优解。

🌟 3. 不断用真实结果修正判断

每试一个参数组合,代理模型就会重新更新“信念”,并重新预测哪些区域值得继续尝试。

调参越往后,模型越“聪明”,搜索路径越精确。这就像一个不断学习经验的调参工程师,越调越准。

🌟 4. 收敛快,适用于高成本模型

因为每一次试验都很有价值,贝叶斯优化通常只需几十次实验就能找到非常优秀的超参数组合。

这对训练成本高的模型(XGBoost、LightGBM、CatBoost、深度学习)尤其友好。

🌟 5. 程序能画非常直观的可视化

该图展示贝叶斯优化过程中各超参数的重要性,对模型误差影响最大的为 n_estimators 和 learning_rate,其次为 max_depth,而 subsample 与 reg_lambda 贡献较小,用于判断调参优先级。

🎲 四、随机搜索参数优化算法及示意图

🌟 1、随机搜索是什么?

一句话概括:

随机搜索就是在超参数空间里不断“抽样试验”,从而找到表现最好的参数组合。

不同于按顺序走格子的调参方式,随机搜索会在整个参数空间中“自由跳跃”,每次从可能区域里随机挑选出一个参数组合,用最直接的方式评估模型的表现。

🌟 2、它的核心思路其实很聪明

虽然名字叫“随机”,但它背后的逻辑却非常高效。

✔ 1. 更广的覆盖范围

每次抽取的点都可能落在搜索空间的不同区域,让模型在有限的预算里探索更多潜在好参数。

✔ 2. 支持多种采样策略

你可以让 learning_rate 以对数分布抽取、让 n_estimators 偏向更大值,这让随机搜索能更贴近真实优化需求。

✔ 3. 每一次试验都独立有效

不依赖复杂的历史记录,适用于快速尝试、快速验证的场景。

换句话说:  它简单,但“简单得很有效”。

🌟 3、为什么它在实际调参中被广泛使用?

在许多模型中,超参数空间往往非常大,比如:

  • XGBoost 的树深、学习率、子采样比例
  • 神经网络的学习率、层数、节点数
  • CatBoost、LightGBM 的几十种可调参数

随机搜索能在这些复杂空间里迅速落点——  不需要把所有组合都跑一遍,也不需要构建额外的代理模型,只需要不断抽样并测试结果。尤其在遥感反演、深度学习任务中,这种轻量但高覆盖的方式,往往能快速找到一个令人满意的初步最优解。

🌟 4、它适合什么场景?

简单总结几个典型应用:

  • 模型初调:快速找到可行参数范围
  • 大搜索空间:超参数众多、组合巨大时
  • 训练成本高:希望用少量试验找到较好解
  • 模型表现敏感:需要探索更大范围避免局部最优

这也是为什么随机搜索常被当作调参的起步策略,先探索,再进一步细化。

🌟 5. 程序能画非常直观的可视化

该图为超参数的成对散点矩阵图,展示不同超参数之间的分布特征与潜在关系,对角线上为各参数的概率密度分布,可用于分析参数空间结构与抽样多样性。

该图展示超参数与模型误差的相关性重要性排名,不同柱状高度反映各参数对 RMSE 的影响强弱,其中 reg_alpha、max_depth 和 learning_rate 贡献最高,有助于确定调参重点方向。

🎲 五、网格搜索参数优化算法及示意图

🌟 1、网格搜索是什么?

一句话概括:

网格搜索就是把所有设定好的超参数组合排成一个“网格”,逐个尝试,通过评估结果找到表现最佳的那一组参数。

就像在一个二维或多维坐标空间里,把所有候选参数都排列出来,然后把每个点都跑一遍,最终选出模型表现最优的位置。

🌟 2、它的核心原则:全面、稳定、逐点验证

网格搜索的理念非常直观:

  • 先定义每个参数可能的取值范围
  • 再把这些取值组合成一个完整网格
  • 然后对每个组合进行模型训练与验证
  • 最后选择最优结果对应的参数

这是一种系统化、无遗漏的搜索方式。它不会遗漏,也不会偏向,它用最直接的方式告诉你:  哪个参数组合最适合你的模型。

🌟 3、为什么网格搜索常被用作调参基础流程?

网格搜索的价值主要体现在几个方面:

✔ 1. 结构清晰、可控性强

你可以完全决定参数候选集,调参过程完全透明。

✔ 2. 适用于小范围、精细化的参数探索

特别适合探索学习率、树深、正则项等关键参数的小步长变化。

✔ 3. 方便结合交叉验证

与 Cross-Validation 结合后,能够获得稳定、可靠的参数评估结果。

✔ 4. 结果可复现、可追踪

每个组合都被尝试过,调参过程完整记录,适合科研工作。

🌟 4、典型应用场景

网格搜索广泛应用于:

  • XGBoost / LightGBM / CatBoost 的关键参数精调
  • SVM、随机森林、岭回归等模型的标准调参
  • 小规模搜索空间的系统验证
  • 科研论文中要求严谨、可复现的实验设计

在你的任务里,网格搜索非常适合用于关键参数的局部精调,确保模型在最佳点附近充分探索。

🌟 5. 程序能画非常直观的可视化

该图展示 GridSearchCV 调参过程中各超参数与 RMSE 的相关性重要性,其中 learning_rate、reg_alpha 和 n_estimators 影响最明显,可用于识别关键参数并指导后续调参方向。

5 代码包含具体内容一览

并将训练集和测试集的精度评估指标保存到 metrics. Mat 矩阵中。共两行,第一行代表训练集的,第二行代表测试集的;共 7 个精度评估指标,分别代表 R, R2, ME, MAE, MAPE, RMSE 以及样本数量。

保存的regression_result.mat数据中分别保存了名字为Y_train、y_pred_train、y_test、y_pred_test的矩阵向量。

同样的针对大家各自的数据训练出的模型结构也保存在model.json中,方便再一次调用。

调用的程序我在程序中注释了,如下

# 加载模型
# model.load_model("model.json")

主程序如下,其中从1-10,每一步都有详细的注释,要获取完整程序,请转下文代码获取


# =========================================================
# 主程序
# =========================================================
def main():
   print("=== 1. 读取数据 ===")
   data = pd.read_excel("data.xlsx")
   X = data.iloc[:, :10].values
   y = data.iloc[:, 10].values
   feature_names = list(data.columns[:10])

   print("=== 2. 划分训练与测试 ===")
   X_train, X_test, y_train, y_test = train_test_split(
       X, y, test_size=0.2, random_state=42
   )

   print("=== 3. 归一化 ===")
   scaler_X = MinMaxScaler()
   scaler_y = MinMaxScaler()

   X_train_norm = scaler_X.fit_transform(X_train)
   X_test_norm = scaler_X.transform(X_test)
   y_train_norm = scaler_y.fit_transform(y_train.reshape(-1, 1)).ravel()

   print("=== 4. 模型训练 ===")
   model = train_model(X_train_norm, y_train_norm)

   print("=== 5. 预测(反归一化到原始尺度) ===")
   y_pred_train_norm = model.predict(X_train_norm)
   y_pred_test_norm = model.predict(X_test_norm)

   y_pred_train = scaler_y.inverse_transform(
       y_pred_train_norm.reshape(-1, 1)
   ).ravel()
   y_pred_test = scaler_y.inverse_transform(
       y_pred_test_norm.reshape(-1, 1)
   ).ravel()

   print("=== 6. 模型评估 ===")
   metrics_train = evaluate_model(y_train, y_pred_train)
   metrics_test = evaluate_model(y_test, y_pred_test)

   print("\n训练集评估指标:")
   for k, v in metrics_train.items():
       print(f"  {k}: {v:.4f}" if isinstance(v, float) else f"  {k}: {v}")

   print("\n测试集评估指标:")
   for k, v in metrics_test.items():
       print(f"  {k}: {v:.4f}" if isinstance(v, float) else f"  {k}: {v}")

   print("=== 7. 保存结果到 MAT 文件 ===")
   result_dict = {
       "y_train": y_train.astype(float),
       "y_pred_train": y_pred_train.astype(float),
       "y_test": y_test.astype(float),
       "y_pred_test": y_pred_test.astype(float),
   }
   savemat("regression_result.mat", result_dict)
   print("已保存 regression_result.mat")

   # 按指标顺序排列
   metrics_matrix = np.array([
       [metrics_train['R'],     metrics_test['R']],
       [metrics_train['R2'],    metrics_test['R2']],
       [metrics_train['ME'],    metrics_test['ME']],
       [metrics_train['MAE'],   metrics_test['MAE']],
       [metrics_train['MAPE'],  metrics_test['MAPE']],
       [metrics_train['RMSE'],  metrics_test['RMSE']],
       [metrics_train['样本数'], metrics_test['样本数']]
   ], dtype=float)
   savemat("metrics.mat", {"metrics": metrics_matrix})
   print("已保存 metrics.mat(矩阵大小 7×2)")

   print("=== 8. SHAP 分析 ===")
   X_combined = np.vstack([X_train_norm, X_test_norm])
   X_df = pd.DataFrame(X_combined, columns=feature_names)
   # shap_results = shap_analysis(model, X_combined, feature_names)
   plot_shap_dependence(model, X_combined, feature_names, X_df)

   print("=== 9. 密度散点图 ===")
   plot_density_scatter(
       y_test, y_pred_test, save_path="scatter_density_test.png"
   )
   plot_density_scatter(
       y_train, y_pred_train, save_path="scatter_density_train.png"
   )

   print("=== 10. 相关性热图 ===")
   correlation_heatmap(data, feature_names)

   print("=== 完成!===")

if __name__ == "__main__":
   main()

6 代码获取

Python | K折交叉验证的参数优化的决策树回归(DT Regression)预测及可视化算法(包括基础算法、贝叶斯搜索参数优化、随机搜索参数优化及网格搜索参数优化共4组算法)

https://mbd.pub/o/bread/YZWalJhyZQ==

新手小白/python 初学者请先根据如下链接教程配置环境,只需要根据我的教程即可,不需要安装 Python 及 pycharm 等软件。如有其他问题可加微信沟通。

Anaconda 安装教程(保姆级超详解)【附安装包+环境玩转指南】

https://mp.weixin.qq.com/s/uRI31yf-NjZTPY5rTXz4eA

目录
相关文章
|
2天前
|
机器学习/深度学习 人工智能 安全
构建AI智能体:八十六、大模型的指令微调与人类对齐:从知识渊博到善解人意
本文探讨了大模型从知识储备到实用助手的进化过程。首先分析了原始预训练模型存在的问题:擅长文本补全但缺乏指令理解能力,可能生成有害或无关内容。然后详细介绍了指令微调技术,通过高质量(指令-输出)数据集教会模型理解并执行翻译、总结、情感分析等任务。进一步阐述了人类对齐技术,包括基于人类反馈的强化学习(RLHF)的三个关键步骤,使模型输出不仅符合指令,更符合人类价值观。最后展示了Qwen模型微调实践,包括代码实现和效果对比。整个过程将AI从知识库转变为既强大又安全可靠的智能助手。
70 18
|
24天前
|
供应链 搜索推荐 API
1688图片搜索相似商品API指南
1688图片搜索相似商品API基于图像识别技术,支持通过图片查找平台内相似商品,提供商品信息与相似度评分,适用于以图搜货、比价、供应链寻源等场景,提升采购效率。
|
29天前
|
存储 SQL JSON
打通可观测性的“任督二脉”:实体与关系的终极融合
阿里云推出图查询能力,基于 graph-match、graph-call、Cypher 三重引擎,实现服务依赖、故障影响、权限链路的秒级可视化与自动化分析,让可观测从‘看板时代’迈向‘图谱时代’。
254 46
|
1月前
|
人工智能 运维 安全
SOC 2.0 来了:不是加人加班,而是加“智能”!——智能化安全运营中心的建设之道
SOC 2.0 来了:不是加人加班,而是加“智能”!——智能化安全运营中心的建设之道
172 15
|
14天前
|
存储 弹性计算 网络安全
阿里云用户上云流程参考:从账号注册、实名认证到领取和使用优惠券流程指南
不管我们是需要在阿里云平台注册域名还是需要购买云服务器及其他云产品,第一步都首要完成账号注册与实名认证流程,此为后选购各类云产品的必要前提。同时,在购买过程中,部分云服务器及其他云产品支持叠加使用阿里云赠送的各种优惠券,有效降低采购成本。本文将以图文的形式,为大家解析从阿里云账号注册、实名认证以及优惠券领取与使用的完整流程,助力用户以更优价格选购心仪的云产品。
122 11
|
15天前
|
机器学习/深度学习 人工智能 数据可视化
构建AI智能体:七十三、模型的成绩单:一文读懂损失函数,看懂AI如何学习
本文系统介绍了损失函数在机器学习中的核心作用。首先通过类比教学场景,阐释损失函数作为模型"导师"的重要性。随后详细解析了回归任务中的均方误差(MSE)和平均绝对误差(MAE),通过房价预测案例展示了它们对误差的不同处理方式。在分类任务部分,重点讲解了二分类和多分类交叉熵损失函数,使用垃圾邮件识别和图像分类等实例,说明这些函数如何通过概率计算来评估预测准确性。文章通过可视化图表直观呈现了不同损失函数的特点,并强调损失函数作为模型优化的指南针,其设计直接影响学习效果。
169 20
|
15天前
|
存储 文字识别 数据可视化
实用代码工具:Python打造PDF选区OCR / 截图批量处理工具(支持手动/全自动模式)
一款基于Python的PDF区域OCR与截图工具,支持精准框选、文字识别、图片截取及Excel一键导出。内置手动审核与全自动批量处理模式,结合PyMuPDF、easyocr等技术,实现高效、可视化的PDF数据提取,适用于发票、报表等场景,显著提升办公效率。
161 11
|
15天前
|
存储 数据可视化 定位技术
如何使用pageadmin的低代码功能搭建工单系统
PageAdmin 低代码搭建工单系统摘要:PageAdmin 除 CMS 功能外,还可通过低代码 0 到 1 搭建工单系统。登录应用管理界面新建工单系统,可视化设计表单菜单存储工单数据,配置含 15 种图表的仪表盘呈现数据概况。支持自定义按钮、工作流等扩展功能,实现平台统一管理与数据关联,避免数据孤岛。
|
17天前
|
Linux Docker 容器
【赵渝强老师】使用yum方式安装Docker
本文介绍如何使用yum方式在Linux系统中安装和管理Docker。通过yum可自动解决依赖问题并方便地进行软件包更新。首先测试网络连通性,然后执行yum命令安装Docker,启动并启用Docker服务,最后验证安装成功并查看版本信息。
109 4
|
3天前
|
存储 弹性计算 人工智能
阿里云服务器热门配置最低价格参考,2核2G38元,2核4G199元,4核8G898.20元
阿里云服务器是很多企业与个人开展网站搭建、应用部署、数据存储等核心业务不可或缺的基础设施。在选择云服务器配置时2核2G、2核4G、4核8G、8核16G是众多个人和企业用户的首选热门配置。目前,2核2G配置最低价格仅为38元,2核4G配置最低199元,4核8G配置最低898.20元,8核16G配置最低6581.50元(均为1年价格)。本文将为您介绍这四种热门配置2026年截至目前的最低活动报价,并分享实用的购买策略,以供大家参考。