【MATLAB第50期】基于MATLAB的RELM-LOO多输入单输出回归&分类预测算法与RELM及ELM进行对比

简介: 【MATLAB第50期】基于MATLAB的RELM-LOO多输入单输出回归&分类预测算法与RELM及ELM进行对比

【MATLAB第50期】基于MATLAB的RELM-LOO多输入单输出回归&分类预测算法与RELM及ELM进行对比


引言


RELM-LOO即通过LOO计算效率方法对其RELM模型正则化C系数进行寻优。

对于进化算法寻优来说, 结果更稳定。


可参考以下文献:

[1] Shao Z , Er M J , Wang N .An effective semi-cross-validation model selection method for extreme learning machine with ridge regression[J].Neurocomputing, 2015, 151:933-942.DOI:10.1016/j.neucom.2014.10.002.


[2] Shao Z , Er M J .Efficient Leave-One-Out Cross-Validation-based Regularized Extreme Learning Machine[J].Neurocomputing, 2016, 194(jun.19):260-270.DOI:10.1016/j.neucom.2016.02.058.


一、回归模型


1.数据情况


7输入1输出,103行样本数据 。

前80训练,后23测试 ,随机样本抽取。

%%  导入数据
res = xlsread('数据集.xlsx');
%%  划分训练集和测试集
temp = randperm(103);
P_train = res(temp(1: 80), 1: 7)';
T_train = res(temp(1: 80), 8)';
M = size(P_train, 2);
P_test = res(temp(81: end), 1: 7)';
T_test = res(temp(81: end), 8)';
N = size(P_test, 2);

2.参数设置

nn.hiddensize     = 100;% 隐含层神经元数
nn.inputsize      = size(p_train,1); %输入变量数量 
nn.activefunction = 's';   %sigmoid激活函数 
method            = {'ELM','RELM','RELM-LOO'};% 方法进行对比
nn                = elm_initialization(nn);% 初始elm偏差及权值 
nn.C1              = 0.001; %RELM初始化正则化参数
nn.C2             = exp(-8:0.2:6); %RELM-LOO搜寻正则化参数范围 

3.效果展示

ELM训练集数据的RMSE为:2.0216
ELM测试集数据的RMSE为:3.199
ELM训练集数据的R2为:0.9337
ELM测试集数据的R2为:0.79778
ELM训练集数据的MAE为:1.5877
ELM测试集数据的MAE为:1.9848
ELM训练集数据的MBE为:0.00034057
ELM测试集数据的MBE为:0.41401
RELM训练集数据的RMSE为:1.643
RELM测试集数据的RMSE为:2.5332
RELM训练集数据的R2为:0.99366
RELM测试集数据的R2为:0.95801
RELM训练集数据的MAE为:0.49995
RELM测试集数据的MAE为:0.88175
RELM训练集数据的MBE为:0.12195
RELM测试集数据的MBE为:0.10933
RELM-LOO训练集数据的RMSE为:0.62506
RELM-LOO测试集数据的RMSE为:1.4577
RELM-LOO训练集数据的R2为:0.99366
RELM-LOO测试集数据的R2为:0.95801
RELM-LOO训练集数据的MAE为:0.49995
RELM-LOO测试集数据的MAE为:0.88175
RELM-LOO训练集数据的MBE为:0.12195
RELM-LOO测试集数据的MBE为:0.10933


二、分类模型


1.数据情况


12输入1输出,357行样本数据 ,4分类标签。

前240训练,后157测试 ,随机样本抽取。

%%  导入数据
res = xlsread('数据集C.xlsx');
%%  划分训练集和测试集
temp = randperm(357);
P_train = res(temp(1: 240), 1: 12)';
T_train = res(temp(1: 240), 13)';
M = size(P_train, 2);
P_test = res(temp(241: end), 1: 12)';
T_test = res(temp(241: end), 13)';
N = size(P_test, 2);


2.参数设置


nn.hiddensize = 100;% 隐含层神经元数

nn.inputsize = size(p_train,1); %输入变量数量

nn.activefunction = ‘s’; %sigmoid激活函数

method = {‘ELM’,‘RELM’,‘RELM-LOO’};% 方法进行对比

nn = elm_initialization(nn);% 初始elm偏差及权值

nn.C = 0.1; %正则化参数

nn.C2 = exp(-4:0.2:4); %RELM-LOO搜寻正则化参数范围

nn.type = ‘classification’;;%分类


3.效果展示



ELM训练集数据的正确率acc为:96.25
ELM测试集数据的正确率acc为:94.0171
RELM训练集数据的正确率acc为:96.25
RELM测试集数据的正确率acc为:96.5812
RELM-LOO训练集数据的正确率acc为:97.0833
RELM-LOO测试集数据的正确率acc为:97.4359


三、代码获取


后台私信回复“50期”可获取下载链接。

相关文章
|
4天前
|
算法 数据安全/隐私保护 计算机视觉
基于Retinex算法的图像去雾matlab仿真
本项目展示了基于Retinex算法的图像去雾技术。完整程序运行效果无水印,使用Matlab2022a开发。核心代码包含详细中文注释和操作步骤视频。Retinex理论由Edwin Land提出,旨在分离图像的光照和反射分量,增强图像对比度、颜色和细节,尤其在雾天条件下表现优异,有效解决图像去雾问题。
|
4天前
|
算法 数据可视化 安全
基于DWA优化算法的机器人路径规划matlab仿真
本项目基于DWA优化算法实现机器人路径规划的MATLAB仿真,适用于动态环境下的自主导航。使用MATLAB2022A版本运行,展示路径规划和预测结果。核心代码通过散点图和轨迹图可视化路径点及预测路径。DWA算法通过定义速度空间、采样候选动作并评估其优劣(目标方向性、障碍物距离、速度一致性),实时调整机器人运动参数,确保安全避障并接近目标。
|
14天前
|
算法 数据安全/隐私保护
室内障碍物射线追踪算法matlab模拟仿真
### 简介 本项目展示了室内障碍物射线追踪算法在无线通信中的应用。通过Matlab 2022a实现,包含完整程序运行效果(无水印),支持增加发射点和室内墙壁设置。核心代码配有详细中文注释及操作视频。该算法基于几何光学原理,模拟信号在复杂室内环境中的传播路径与强度,涵盖场景建模、射线发射、传播及接收点场强计算等步骤,为无线网络规划提供重要依据。
|
13天前
|
移动开发 算法 计算机视觉
基于分块贝叶斯非局部均值优化(OBNLM)的图像去噪算法matlab仿真
本项目基于分块贝叶斯非局部均值优化(OBNLM)算法实现图像去噪,使用MATLAB2022A进行仿真。通过调整块大小和窗口大小等参数,研究其对去噪效果的影响。OBNLM结合了经典NLM算法与贝叶斯统计理论,利用块匹配和概率模型优化相似块的加权融合,提高去噪效率和保真度。实验展示了不同参数设置下的去噪结果,验证了算法的有效性。
|
11天前
|
算法 决策智能
基于SA模拟退火优化算法的TSP问题求解matlab仿真,并对比ACO蚁群优化算法
本项目基于MATLAB2022A,使用模拟退火(SA)和蚁群优化(ACO)算法求解旅行商问题(TSP),对比两者的仿真时间、收敛曲线及最短路径长度。SA源于金属退火过程,允许暂时接受较差解以跳出局部最优;ACO模仿蚂蚁信息素机制,通过正反馈发现最优路径。结果显示SA全局探索能力强,ACO在路径优化类问题中表现优异。
|
26天前
|
机器学习/深度学习 算法
基于改进遗传优化的BP神经网络金融序列预测算法matlab仿真
本项目基于改进遗传优化的BP神经网络进行金融序列预测,使用MATLAB2022A实现。通过对比BP神经网络、遗传优化BP神经网络及改进遗传优化BP神经网络,展示了三者的误差和预测曲线差异。核心程序结合遗传算法(GA)与BP神经网络,利用GA优化BP网络的初始权重和阈值,提高预测精度。GA通过选择、交叉、变异操作迭代优化,防止局部收敛,增强模型对金融市场复杂性和不确定性的适应能力。
166 80
|
15天前
|
机器学习/深度学习 数据采集 算法
基于GA遗传优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
本项目基于MATLAB2022a实现时间序列预测,采用CNN-GRU-SAM网络结构。卷积层提取局部特征,GRU层处理长期依赖,自注意力机制捕捉全局特征。完整代码含中文注释和操作视频,运行效果无水印展示。算法通过数据归一化、种群初始化、适应度计算、个体更新等步骤优化网络参数,最终输出预测结果。适用于金融市场、气象预报等领域。
基于GA遗传优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
|
15天前
|
算法
基于龙格库塔算法的锅炉单相受热管建模与matlab数值仿真
本设计基于龙格库塔算法对锅炉单相受热管进行建模与MATLAB数值仿真,简化为喷水减温器和末级过热器组合,考虑均匀传热及静态烟气处理。使用MATLAB2022A版本运行,展示自编与内置四阶龙格库塔法的精度对比及误差分析。模型涉及热传递和流体动力学原理,适用于优化锅炉效率。
|
20天前
|
机器学习/深度学习 算法
基于遗传优化的双BP神经网络金融序列预测算法matlab仿真
本项目基于遗传优化的双BP神经网络实现金融序列预测,使用MATLAB2022A进行仿真。算法通过两个初始学习率不同的BP神经网络(e1, e2)协同工作,结合遗传算法优化,提高预测精度。实验展示了三个算法的误差对比结果,验证了该方法的有效性。
|
23天前
|
机器学习/深度学习 数据采集 算法
基于PSO粒子群优化的CNN-GRU-SAM网络时间序列回归预测算法matlab仿真
本项目展示了基于PSO优化的CNN-GRU-SAM网络在时间序列预测中的应用。算法通过卷积层、GRU层、自注意力机制层提取特征,结合粒子群优化提升预测准确性。完整程序运行效果无水印,提供Matlab2022a版本代码,含详细中文注释和操作视频。适用于金融市场、气象预报等领域,有效处理非线性数据,提高预测稳定性和效率。

热门文章

最新文章