【MATLAB第39期】基于MATLAB的多元相关向量回归MRVR和快速FMRVR多输入多输出回归预测算法(多输入多输出数据)

简介: 【MATLAB第39期】基于MATLAB的多元相关向量回归MRVR和快速FMRVR多输入多输出回归预测算法(多输入多输出数据)

MATLAB第39期】基于MATLAB的多元相关向量回归MRVR和快速FMRVR多输入多输出回归预测算法(多输入多输出数据)


一、效果展示


1.FMRVR


2. # of iterations = 10
2. # of iterations = 10
历时 0.590399 秒。
**************************
下列是输出1
**************************
训练集数据的R2为:0.91476
测试集数据的R2为:0.90012
训练集数据的MAE为:107.4164
测试集数据的MAE为:118.6531
训练集数据的MBE为:-5.1681
测试集数据的MBE为:4.579
**************************
下列是输出2
**************************
训练集数据的R2为:0.97846
测试集数据的R2为:0.96061
训练集数据的MAE为:54.173
测试集数据的MAE为:75.3314
训练集数据的MBE为:-0.95966
测试集数据的MBE为:3.0532
**************************
下列是输出3
**************************
训练集数据的R2为:0.88799
测试集数据的R2为:0.91031
训练集数据的MAE为:107.6909
测试集数据的MAE为:122.2654
训练集数据的MBE为:-20.9333
测试集数据的MBE为:-26.701
=================
训练集运行结果
第1个因变量
回归误差 (RMS): 83.4517
估计噪声水平: 0.1827 (true: 0.1622)
第2个因变量
回归误差 (RMS): 95.0044
估计噪声水平: 0.0539 (true: 0.0157)
第3个因变量
回归误差 (RMS): 35.9521
估计噪声水平: 0.4115 (true: 0.4167)
=================
测试集运行结果
第1个因变量
回归误差 (RMS): 69.2293
估计噪声水平: 0.1970 (true: 0.1622)
第2个因变量
回归误差 (RMS): 24.5793
估计噪声水平: 0.0826 (true: 0.0157)
第3个因变量
回归误差 (RMS): 330.102
估计噪声水平: 0.4296 (true: 0.4167)
训练集熵损失 = 15.4545
训练集二次损失 = 335.4603
测试集熵损失 = 40.0038
测试集二次损失 = 1897.5659


2.MRVR

1. # of iterations = 10
1. # of iterations = 10
历时 34.937888 秒。
**************************
下列是输出1
**************************
训练集数据的R2为:0.78223
测试集数据的R2为:0.32016
训练集数据的MAE为:173.4356
测试集数据的MAE为:328.7633
训练集数据的MBE为:-32.7339
测试集数据的MBE为:200.1722
**************************
下列是输出2
**************************
训练集数据的R2为:0.94909
测试集数据的R2为:0.66437
训练集数据的MAE为:85.6813
测试集数据的MAE为:210.3887
训练集数据的MBE为:-22.3859
测试集数据的MBE为:94.008
**************************
下列是输出3
**************************
训练集数据的R2为:0.94538
测试集数据的R2为:0.92513
训练集数据的MAE为:88.4047
测试集数据的MAE为:96.8574
训练集数据的MBE为:0.51131
测试集数据的MBE为:-26.8483
=================
训练集运行结果
第1个因变量
回归误差 (RMS): 111.282
估计噪声水平: 0.9684 (true: 0.9488)
第2个因变量
回归误差 (RMS): 144.32
估计噪声水平: 0.7537 (true: 0.7541)
第3个因变量
回归误差 (RMS): 101.934
估计噪声水平: 0.1996 (true: 0.1938)
=================
测试集运行结果
第1个因变量
回归误差 (RMS): 240.296
估计噪声水平: 1.0334 (true: 0.9488)
第2个因变量
回归误差 (RMS): 48.7849
估计噪声水平: 0.6868 (true: 0.7541)
第3个因变量
回归误差 (RMS): 180.328
估计噪声水平: 0.2048 (true: 0.1938)
训练集熵损失 = 0.015592
训练集二次损失 = 0.032023
测试集熵损失 = 0.13245
测试集二次损失 = 0.30277


二、代码展示


数据为28输入,3输出。共600样本,训练集样本数为500,测试集样本数为100。

%该程序演示了多元相关向量回归(MRVR)和快速fMRVR算法
%=========================================================================
clear, clc, close all;
%% 参数设置
isFast      = true; % true(快速fMRVR)或false(原始MRVR)
maxIts      = 10; % EM算法的最大迭代次数
tolerance   = .1;   % 检验EM算法收敛性的容差值
%%  导入数据
res = xlsread('数据集.xlsx');
%%  划分训练集和测试集
temp = randperm(600);
P_train = res(temp(1: 500), 1 : 28)';
T_train = res(temp(1: 500), 29: 31)';
M = size(P_train, 2);
P_test = res(temp(501: end), 1 : 28)';
T_test = res(temp(501: end), 29: 31)';
N = size(P_test, 2);
%%  数据归一化
[p_train, ps_input] = mapminmax(P_train, 0, 1);
p_test = mapminmax('apply', P_test, ps_input);
[t_train, ps_output] = mapminmax(T_train, 0, 1);
t_test = mapminmax('apply', T_test, ps_output);
% kernel
kernelType  = '+gauss';
kernelWidth = 1.6;
%% RMS和估计噪声水平
disp('=================')
disp('训练集运行结果')
for j = 1:size(Y,2)
  text = '第';
   fprintf([text '%d'  '个因变量\n'],j)
    fprintf('回归误差 (RMS): %g\n', ...
  sqrt(mean((T_train(:,j)-T_sim1(:,j)).^2)))
    fprintf('估计噪声水平: %.4f (true: %.4f)\n\n', ...
        sqrt(OmegaHat(j,j)), noise(j))
        disp('=================')
        disp('测试集运行结果')
        for j = 1:size(Y,2)
        end
            text = '第';
    fprintf([text '%d'  '个因变量\n'],j)
    fprintf('回归误差 (RMS): %g\n', ...
  sqrt(mean((T_test(:,j)-T_sim2(:,j)).^2)))
    fprintf('估计噪声水平: %.4f (true: %.4f)\n\n', ...
        sqrt(OmegaHat1(j,j)), noise(j))
        end
%% 度量协方差矩阵估计的性能
V = size(Y,2); % V是输出维度
temp = (Omega\OmegaHat)'; %Omega是真的,OmegaHat是估计的
temp1 = (Omega\OmegaHat1)'; %Omega是真的,OmegaHat是估计的
loss1 = trace(temp) - log(det(temp)) - V; % %熵损失
loss2 = trace((temp - eye(V))^2); % 二次损失
loss1_1 = trace(temp1) - log(det(temp1)) - V; % %熵损失
loss2_1 = trace((temp1 - eye(V))^2); % 二次损失
disp(['训练集熵损失 = ' num2str(loss1)])
disp(['训练集二次损失 = ' num2str(loss2)])
disp(['测试集熵损失 = ' num2str(loss1_1)])
disp(['测试集二次损失 = ' num2str(loss2_1)])


三、代码获取


后台私信回复“第39期”即可获取下载链接

相关文章
|
4天前
|
算法 数据安全/隐私保护 计算机视觉
基于Retinex算法的图像去雾matlab仿真
本项目展示了基于Retinex算法的图像去雾技术。完整程序运行效果无水印,使用Matlab2022a开发。核心代码包含详细中文注释和操作步骤视频。Retinex理论由Edwin Land提出,旨在分离图像的光照和反射分量,增强图像对比度、颜色和细节,尤其在雾天条件下表现优异,有效解决图像去雾问题。
|
4天前
|
算法 数据可视化 安全
基于DWA优化算法的机器人路径规划matlab仿真
本项目基于DWA优化算法实现机器人路径规划的MATLAB仿真,适用于动态环境下的自主导航。使用MATLAB2022A版本运行,展示路径规划和预测结果。核心代码通过散点图和轨迹图可视化路径点及预测路径。DWA算法通过定义速度空间、采样候选动作并评估其优劣(目标方向性、障碍物距离、速度一致性),实时调整机器人运动参数,确保安全避障并接近目标。
|
14天前
|
算法 数据安全/隐私保护
室内障碍物射线追踪算法matlab模拟仿真
### 简介 本项目展示了室内障碍物射线追踪算法在无线通信中的应用。通过Matlab 2022a实现,包含完整程序运行效果(无水印),支持增加发射点和室内墙壁设置。核心代码配有详细中文注释及操作视频。该算法基于几何光学原理,模拟信号在复杂室内环境中的传播路径与强度,涵盖场景建模、射线发射、传播及接收点场强计算等步骤,为无线网络规划提供重要依据。
|
13天前
|
移动开发 算法 计算机视觉
基于分块贝叶斯非局部均值优化(OBNLM)的图像去噪算法matlab仿真
本项目基于分块贝叶斯非局部均值优化(OBNLM)算法实现图像去噪,使用MATLAB2022A进行仿真。通过调整块大小和窗口大小等参数,研究其对去噪效果的影响。OBNLM结合了经典NLM算法与贝叶斯统计理论,利用块匹配和概率模型优化相似块的加权融合,提高去噪效率和保真度。实验展示了不同参数设置下的去噪结果,验证了算法的有效性。
|
11天前
|
算法 决策智能
基于SA模拟退火优化算法的TSP问题求解matlab仿真,并对比ACO蚁群优化算法
本项目基于MATLAB2022A,使用模拟退火(SA)和蚁群优化(ACO)算法求解旅行商问题(TSP),对比两者的仿真时间、收敛曲线及最短路径长度。SA源于金属退火过程,允许暂时接受较差解以跳出局部最优;ACO模仿蚂蚁信息素机制,通过正反馈发现最优路径。结果显示SA全局探索能力强,ACO在路径优化类问题中表现优异。
|
26天前
|
机器学习/深度学习 算法
基于改进遗传优化的BP神经网络金融序列预测算法matlab仿真
本项目基于改进遗传优化的BP神经网络进行金融序列预测,使用MATLAB2022A实现。通过对比BP神经网络、遗传优化BP神经网络及改进遗传优化BP神经网络,展示了三者的误差和预测曲线差异。核心程序结合遗传算法(GA)与BP神经网络,利用GA优化BP网络的初始权重和阈值,提高预测精度。GA通过选择、交叉、变异操作迭代优化,防止局部收敛,增强模型对金融市场复杂性和不确定性的适应能力。
166 80
|
15天前
|
机器学习/深度学习 数据采集 算法
基于GA遗传优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
本项目基于MATLAB2022a实现时间序列预测,采用CNN-GRU-SAM网络结构。卷积层提取局部特征,GRU层处理长期依赖,自注意力机制捕捉全局特征。完整代码含中文注释和操作视频,运行效果无水印展示。算法通过数据归一化、种群初始化、适应度计算、个体更新等步骤优化网络参数,最终输出预测结果。适用于金融市场、气象预报等领域。
基于GA遗传优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
|
15天前
|
算法
基于龙格库塔算法的锅炉单相受热管建模与matlab数值仿真
本设计基于龙格库塔算法对锅炉单相受热管进行建模与MATLAB数值仿真,简化为喷水减温器和末级过热器组合,考虑均匀传热及静态烟气处理。使用MATLAB2022A版本运行,展示自编与内置四阶龙格库塔法的精度对比及误差分析。模型涉及热传递和流体动力学原理,适用于优化锅炉效率。
|
20天前
|
机器学习/深度学习 算法
基于遗传优化的双BP神经网络金融序列预测算法matlab仿真
本项目基于遗传优化的双BP神经网络实现金融序列预测,使用MATLAB2022A进行仿真。算法通过两个初始学习率不同的BP神经网络(e1, e2)协同工作,结合遗传算法优化,提高预测精度。实验展示了三个算法的误差对比结果,验证了该方法的有效性。
|
23天前
|
机器学习/深度学习 数据采集 算法
基于PSO粒子群优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
本项目展示了基于PSO优化的CNN-GRU-SAM网络在时间序列预测中的应用。算法通过卷积层、GRU层、自注意力机制层提取特征,结合粒子群优化提升预测准确性。完整程序运行效果无水印,提供Matlab2022a版本代码,含详细中文注释和操作视频。适用于金融市场、气象预报等领域,有效处理非线性数据,提高预测稳定性和效率。