【MATLAB第62期】基于MATLAB的PSO-NN、BBO-NN、前馈神经网络NN回归预测对比

简介: 后台私信回复“62期”即可获取下载链接。

【MATLAB第62期】基于MATLAB的PSO-NN、BBO-NN、前馈神经网络NN回归预测对比

一、数据设置

1、7输入1输出
2、103行样本
3、80个训练样本,23个测试样本

二、效果展示

2023-07-30_181536.png
2023-07-30_181521.png
2023-07-30_181510.png
2023-07-30_181456.png
2023-07-30_181447.png

NN训练集数据的R2为:0.73013
NN测试集数据的R2为:0.23848
NN训练集数据的MAE为:3.0122
NN测试集数据的MAE为:4.4752
NN训练集数据的MAPE为:0.088058
NN测试集数据的MAPE为:0.1302
PSO-NN训练集数据的R2为:0.76673
PSO-NN测试集数据的R2为:0.72916
PSO-NN训练集数据的MAE为:3.124
PSO-NN测试集数据的MAE为:3.1873
PSO-NN训练集数据的MAPE为:0.088208
PSO-NN测试集数据的MAPE为:0.094787
BBO-NN训练集数据的R2为:0.67729
BBO-NN测试集数据的R2为:0.46872
BBO-NN训练集数据的MAE为:3.5204
BBO-NN测试集数据的MAE为:4.4843
BBO-NN训练集数据的MAPE为:0.099475
BBO-NN测试集数据的MAPE为:0.14177

三、代码展示(部分)

%%PSO-NN及BBO-BP回归
%基于生物地理优化进化算法(BBO)
%-----------------------------------------------------------------------
%%  清空环境变量
warning off             % 关闭报警信息
close all               % 关闭开启的图窗
clear                   % 清空变量
clc                     % 清空命令行
rng(0)
%%  导入数据
res = xlsread('数据集.xlsx');

%%  划分训练集和测试集
temp = randperm(103);

P_train = res(temp(1: 80), 1: 7)';
T_train = res(temp(1: 80), 8)';
M = size(P_train, 2);

P_test = res(temp(81: end), 1: 7)';
T_test = res(temp(81: end), 8)';
N = size(P_test, 2);

%%  数据归一化
[p_train, ps_input] = mapminmax(P_train, 0, 1);
p_test = mapminmax('apply', P_test, ps_input);

[t_train, ps_output] = mapminmax(T_train, 0, 1);
t_test = mapminmax('apply', T_test, ps_output);
%% Learning 
n = 9; % Neurons
%----------------------------------------
% 'trainlm'        Levenberg-Marquardt
% 'trainbr'     Bayesian Regularization (good)
% 'trainrp'      Resilient Backpropagation
% 'traincgf'    Fletcher-Powell Conjugate Gradient
% 'trainoss'    One Step Secant (good)
% 'traingd'     Gradient Descent
% Creating the NN ----------------------------
net = feedforwardnet(n,'trainoss');
%---------------------------------------------
% configure the neural network for this dataset
[net tr]= train(net,p_train, t_train);
perf = perform(net,p_train', t_train'); % mse

%%  仿真预测
t_sim01=net(p_train);
t_sim02=net(p_test);
T_sim01 = mapminmax('reverse', t_sim01, ps_output);
T_sim02 = mapminmax('reverse', t_sim02, ps_output);

%%  均方根误差
error01 = sqrt(sum((T_sim01 - T_train).^2) ./ M);
error02 = sqrt(sum((T_sim02 - T_test ).^2) ./ N);


%%  绘图
figure()
subplot(2,1,1)
plot(1: M, T_train, 'r-*', 1: M, T_sim01, 'b-o', 'LineWidth', 1)
legend('真实值', '预测值')
xlabel('预测样本')
ylabel('预测结果')
string = {
   
   'NN训练集预测结果对比'; ['RMSE=' num2str(error01)]};
title(string)
xlim([1, M])
grid

subplot(2,1,2)
plot(1: N, T_test, 'r-*', 1: N, T_sim02, 'b-o', 'LineWidth', 1)
legend('真实值', '预测值')
xlabel('预测样本')
ylabel('预测结果')
string = {
   
   'NN测试集预测结果对比'; ['RMSE=' num2str(error02)]};
title(string)
xlim([1, N])
grid


t_sim11=net_pso(p_train);
t_sim22=net_pso(p_test);
T_sim11 = mapminmax('reverse', t_sim11, ps_output);
T_sim22 = mapminmax('reverse', t_sim22, ps_output);
%%  均方根误差
error11 = sqrt(sum((T_sim11 - T_train).^2) ./ M);
error22 = sqrt(sum((T_sim22 - T_test ).^2) ./ N);

%%  相关指标计算
%  R2
R01 = 1 - norm(T_train - T_sim01)^2 / norm(T_train - mean(T_train))^2;
R02 = 1 - norm(T_test  - T_sim02)^2 / norm(T_test  - mean(T_test ))^2;

disp(['NN训练集数据的R2为:', num2str(R01)])
disp(['NN测试集数据的R2为:', num2str(R02)])

%  MAE
mae01 = sum(abs(T_sim01 - T_train)) ./ M ;
mae02 = sum(abs(T_sim02 - T_test )) ./ N ;

disp(['NN训练集数据的MAE为:', num2str(mae01)])
disp(['NN测试集数据的MAE为:', num2str(mae02)])

%  MAPE   mape = mean(abs((YReal - YPred)./YReal));

mape01 = mean(abs((T_train - T_sim01)./T_train));    
mape02 = mean(abs((T_test - T_sim02 )./T_test));      

disp(['NN训练集数据的MAPE为:', num2str(mape01)])
disp(['NN测试集数据的MAPE为:', num2str(mape02)])


%%  绘图
figure()
subplot(2,1,1)
plot(1: M, T_train, 'r-*', 1: M, T_sim11, 'b-o', 'LineWidth', 1)
legend('真实值', '预测值')
xlabel('预测样本')
ylabel('预测结果')
string = {
   
   'PSO-NN训练集预测结果对比'; ['RMSE=' num2str(error11)]};
title(string)
xlim([1, M])
grid

subplot(2,1,2)
plot(1: N, T_test, 'r-*', 1: N, T_sim22, 'b-o', 'LineWidth', 1)
legend('真实值', '预测值')
xlabel('预测样本')
ylabel('预测结果')
string = {
   
   'PSO-NN测试集预测结果对比'; ['RMSE=' num2str(error22)]};
title(string)
xlim([1, N])
grid

%%  相关指标计算
%  R2
R11 = 1 - norm(T_train - T_sim11)^2 / norm(T_train - mean(T_train))^2;
R22 = 1 - norm(T_test  - T_sim22)^2 / norm(T_test  - mean(T_test ))^2;

disp(['PSO-NN训练集数据的R2为:', num2str(R11)])
disp(['PSO-NN测试集数据的R2为:', num2str(R22)])

%  MAE
mae11 = sum(abs(T_sim11 - T_train)) ./ M ;
mae22 = sum(abs(T_sim22 - T_test )) ./ N ;

disp(['PSO-NN训练集数据的MAE为:', num2str(mae11)])
disp(['PSO-NN测试集数据的MAE为:', num2str(mae22)])

%  MAPE   mape = mean(abs((YReal - YPred)./YReal));

mape11 = mean(abs((T_train - T_sim11)./T_train));    
mape22 = mean(abs((T_test - T_sim22 )./T_test));      

disp(['PSO-NN训练集数据的MAPE为:', num2str(mape11)])
disp(['PSO-NN测试集数据的MAPE为:', num2str(mape22)])



%% BBO优化 NN 权重和偏差
%% PSO优化 NN 权重和偏差
Weights_Bias_bbo=getwb(net_bbo);

t_sim31=net_bbo(p_train);
t_sim32=net_bbo(p_test);
T_sim31 = mapminmax('reverse', t_sim31, ps_output);
T_sim32 = mapminmax('reverse', t_sim32, ps_output);
%%  均方根误差
error31 = sqrt(sum((T_sim31 - T_train).^2) ./ M);
error32 = sqrt(sum((T_sim32 - T_test ).^2) ./ N);


%%  绘图
figure()
subplot(2,1,1)
plot(1: M, T_train, 'r-*', 1: M, T_sim31, 'b-o', 'LineWidth', 1)
legend('真实值', '预测值')
xlabel('预测样本')
ylabel('预测结果')
string = {
   
   'BBO-NN训练集预测结果对比'; ['RMSE=' num2str(error31)]};
title(string)
xlim([1, M])
grid

subplot(2,1,2)
plot(1: N, T_test, 'r-*', 1: N, T_sim32, 'b-o', 'LineWidth', 1)
legend('真实值', '预测值')
xlabel('预测样本')
ylabel('预测结果')
string = {
   
   'BBO-NN测试集预测结果对比'; ['RMSE=' num2str(error32)]};
title(string)
xlim([1, N])
grid

%%  相关指标计算
%  R2
R31 = 1 - norm(T_train - T_sim31)^2 / norm(T_train - mean(T_train))^2;
R32 = 1 - norm(T_test  - T_sim32)^2 / norm(T_test  - mean(T_test ))^2;

disp(['BBO-NN训练集数据的R2为:', num2str(R31)])
disp(['BBO-NN测试集数据的R2为:', num2str(R32)])

%  MAE
mae31 = sum(abs(T_sim31 - T_train)) ./ M ;
mae32 = sum(abs(T_sim32 - T_test )) ./ N ;

disp(['BBO-NN训练集数据的MAE为:', num2str(mae31)])
disp(['BBO-NN测试集数据的MAE为:', num2str(mae32)])

%  MAPE   mape = mean(abs((YReal - YPred)./YReal));

mape31 = mean(abs((T_train - T_sim31)./T_train));    
mape32 = mean(abs((T_test - T_sim32 )./T_test));      

disp(['BBO-NN训练集数据的MAPE为:', num2str(mape31)])
disp(['BBO-NN测试集数据的MAPE为:', num2str(mape32)])

四、代码获取

后台私信回复“62期”即可获取下载链接。

相关文章
|
26天前
|
机器学习/深度学习 算法
基于改进遗传优化的BP神经网络金融序列预测算法matlab仿真
本项目基于改进遗传优化的BP神经网络进行金融序列预测,使用MATLAB2022A实现。通过对比BP神经网络、遗传优化BP神经网络及改进遗传优化BP神经网络,展示了三者的误差和预测曲线差异。核心程序结合遗传算法(GA)与BP神经网络,利用GA优化BP网络的初始权重和阈值,提高预测精度。GA通过选择、交叉、变异操作迭代优化,防止局部收敛,增强模型对金融市场复杂性和不确定性的适应能力。
166 80
|
15天前
|
机器学习/深度学习 数据采集 算法
基于GA遗传优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
本项目基于MATLAB2022a实现时间序列预测,采用CNN-GRU-SAM网络结构。卷积层提取局部特征,GRU层处理长期依赖,自注意力机制捕捉全局特征。完整代码含中文注释和操作视频,运行效果无水印展示。算法通过数据归一化、种群初始化、适应度计算、个体更新等步骤优化网络参数,最终输出预测结果。适用于金融市场、气象预报等领域。
基于GA遗传优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
|
10天前
|
机器学习/深度学习 算法 计算机视觉
基于CNN卷积神经网络的金融数据预测matlab仿真,对比BP,RBF,LSTM
本项目基于MATLAB2022A,利用CNN卷积神经网络对金融数据进行预测,并与BP、RBF和LSTM网络对比。核心程序通过处理历史价格数据,训练并测试各模型,展示预测结果及误差分析。CNN通过卷积层捕捉局部特征,BP网络学习非线性映射,RBF网络进行局部逼近,LSTM解决长序列预测中的梯度问题。实验结果表明各模型在金融数据预测中的表现差异。
|
20天前
|
机器学习/深度学习 算法
基于遗传优化的双BP神经网络金融序列预测算法matlab仿真
本项目基于遗传优化的双BP神经网络实现金融序列预测,使用MATLAB2022A进行仿真。算法通过两个初始学习率不同的BP神经网络(e1, e2)协同工作,结合遗传算法优化,提高预测精度。实验展示了三个算法的误差对比结果,验证了该方法的有效性。
|
23天前
|
机器学习/深度学习 数据采集 算法
基于PSO粒子群优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
本项目展示了基于PSO优化的CNN-GRU-SAM网络在时间序列预测中的应用。算法通过卷积层、GRU层、自注意力机制层提取特征,结合粒子群优化提升预测准确性。完整程序运行效果无水印,提供Matlab2022a版本代码,含详细中文注释和操作视频。适用于金融市场、气象预报等领域,有效处理非线性数据,提高预测稳定性和效率。
|
1月前
|
机器学习/深度学习 算法 Python
基于BP神经网络的金融序列预测matlab仿真
本项目基于BP神经网络实现金融序列预测,使用MATLAB2022A版本进行开发与测试。通过构建多层前馈神经网络模型,利用历史金融数据训练模型,实现对未来金融时间序列如股票价格、汇率等的预测,并展示了预测误差及训练曲线。
|
1月前
|
机器学习/深度学习 算法 信息无障碍
基于GoogleNet深度学习网络的手语识别算法matlab仿真
本项目展示了基于GoogleNet的深度学习手语识别算法,使用Matlab2022a实现。通过卷积神经网络(CNN)识别手语手势,如"How are you"、"I am fine"、"I love you"等。核心在于Inception模块,通过多尺度处理和1x1卷积减少计算量,提高效率。项目附带完整代码及操作视频。
|
17天前
|
传感器 算法
基于GA遗传优化的WSN网络最优节点部署算法matlab仿真
本项目基于遗传算法(GA)优化无线传感器网络(WSN)的节点部署,旨在通过最少的节点数量实现最大覆盖。使用MATLAB2022A进行仿真,展示了不同初始节点数量(15、25、40)下的优化结果。核心程序实现了最佳解获取、节点部署绘制及适应度变化曲线展示。遗传算法通过初始化、选择、交叉和变异步骤,逐步优化节点位置配置,最终达到最优覆盖率。
|
27天前
|
机器学习/深度学习 人工智能 算法
基于GRNN广义回归网络和MFCC的语音情绪识别matlab仿真,对比SVM和KNN
该语音情绪识别算法基于MATLAB 2022a开发,可识别如悲伤等情绪,置信度高达0.9559。核心程序含中文注释及操作视频。算法采用MFCC特征提取与GRNN广义回归网络,通过预加重、分帧、加窗、FFT、梅尔滤波器组、对数运算和DCT等步骤处理语音信号,实现高效的情绪分类。
|
5月前
|
安全
【2023高教社杯】D题 圈养湖羊的空间利用率 问题分析、数学模型及MATLAB代码
本文介绍了2023年高教社杯数学建模竞赛D题的圈养湖羊空间利用率问题,包括问题分析、数学模型建立和MATLAB代码实现,旨在优化养殖场的生产计划和空间利用效率。
258 6
【2023高教社杯】D题 圈养湖羊的空间利用率 问题分析、数学模型及MATLAB代码

热门文章

最新文章