【博士每天一篇文献-算法】 PNN网络启发的神经网络结构搜索算法Progressive neural architecture search

简介: 本文提出了一种名为渐进式神经架构搜索(Progressive Neural Architecture Search, PNAS)的方法,它使用顺序模型优化策略和替代模型来逐步搜索并优化卷积神经网络结构,从而提高了搜索效率并减少了训练成本。

阅读时间:2023-12-23

1 介绍

年份:2018
:Chenxi Liu,Google DeepMind研究科学家;Barret Zoph,OpenAI;Maxim Neumann,Goolge
会议:B区会议, Proceedings of the European conference on computer vision (ECCV).
引用量:2320
Liu C, Zoph B, Neumann M, et al. Progressive neural architecture search[C]//Proceedings of the European conference on computer vision (ECCV). 2018: 19-34.
本文提出了一种新的卷积神经网络(CNN)结构学习方法。是一种顺序模型优化(Sequential Model-Based Optimization, SMBO)策略,通过逐步增加模型复杂度来搜索结构,并同时学习一个替代模型(surrogate model)来指导搜索过程。与直接搜索完整CNN结构的方法不同,本文方法首先搜索一个好的卷积“单元”(cell),然后根据训练集大小和期望的运行时间,将这个单元堆叠多次形成最终的CNN。从简单的模型开始,逐步过渡到复杂的模型,并在此过程中剪枝掉没有前景的结构。为了减少训练和评估模型的成本,同时训练一个模型或替代函数来预测一个结构的性能,而无需实际训练它。
image.png
image.png
image.png

2 创新点

  1. 渐进式搜索策略:与传统的一次性搜索整个网络结构的方法不同,论文提出了一种渐进式的搜索策略,即从简单的网络结构开始,逐步增加复杂性,这有助于快速获得初步结果并对替代模型进行训练。
  2. 结构化搜索空间:采用了一种结构化的搜索空间,通过搜索卷积“单元”(cell)而不是整个CNN,然后将这些单元堆叠起来构建最终的网络结构,这提高了搜索的效率和模型的可转移性。
  3. 替代模型引导搜索:为了减少实际训练模型的数量,论文提出了使用一个替代模型来预测候选模型的性能。这个替代模型基于已评估模型的性能数据进行训练,并用于指导搜索过程。
  4. 高效的性能预测:论文中使用了LSTM和MLP作为替代模型,通过学习模型结构与性能之间的映射关系,有效预测模型性能,减少了对实际训练的依赖。
  5. 优化的搜索过程:通过扩展当前候选单元并使用替代模型进行评估,选择最有前景的候选者进行训练和评估,这一过程不断迭代,直到达到所需的单元复杂度。
  6. 实验验证:论文在CIFAR-10和ImageNet数据集上进行了广泛的实验,验证了所提出方法的有效性,并且在计算效率和模型性能上均达到了当时的最佳水平。

3 算法步骤

  1. 初始化候选单元集合
    • 从单个块(block)的单元结构开始,构建所有可能的单元结构集合 $ S_1 $​。
  2. 单元转换为CNN
    • 将每个单元结构转换为一个CNN模型,这是通过将单元结构重复堆叠一定次数来完成的。
  3. 训练代理CNN
    • 训练集合 $ S_1 $​中的每个单元结构对应的CNN模型,并在训练集上进行训练。
  4. 评估验证准确率
    • 在验证集上评估每个CNN模型的性能,获取它们的验证准确率。
  5. 训练性能预测模型
    • 使用已评估的单元结构的准确率作为训练数据,训练一个性能预测模型(如LSTM或MLP),用于预测单元结构的性能。
  6. 扩展候选单元
    • 将当前候选单元集合 $ S_b $​中的每个单元扩展一个块,生成新的候选单元集合 $ S'_{b+1} $​。
  7. 预测性能
    • 使用性能预测模型对 $ S'_{b+1} $​中的单元进行评分,预测它们的性能。
  8. 选择最有前景的单元
    • 根据预测模型的评分,选择最有前景的K个单元结构,形成新的候选集合 $ S_{b+1} $​。
  9. 转换和训练
    • 将 $ S_{b+1} $​中的单元结构转换为CNN模型,并在训练集上进行训练。
  10. 更新性能预测模型
  • 使用新训练的CNN模型在验证集上的性能来更新性能预测模型。
  1. 迭代搜索
  • 重复步骤6到10,直到达到所需的最大块数量B。
  1. 选择最终模型
  • 在最终的候选单元集合 $ S_B $​中,选择验证准确率最高的单元结构作为最终的CNN模型。
  1. 进一步训练和评估
  • 将选定的单元结构进一步训练,并在测试集上评估其性能。

image.png
途中单元结构由5个“块”(blocks)组成,每个块代表网络中的一个操作或一组操作。
image.png
展示了PNAS算法在最大块数 ( B = 3 ) 的情况下的搜索步骤。

  1. 初始化候选单元集合
    • $ S_b $​表示具有b个块的候选单元集合。
    • 搜索从 $ S_1 $​开始,即所有只包含1个块的单元结构集合 $ S_1 = B_1 $​。
  2. 训练和评估
    • 训练并评估 $ S_1 $​中的所有单元,并使用它们的性能数据来更新性能预测模型(预测器)。
  3. 迭代扩展
    • 在第2次迭代中,将 $ S_1 $​中的每个单元扩展为具有2个块的单元,得到 $ S'_2 = B_1:2 $。
    • 使用性能预测模型对 $ S'_2 $​中的所有可能的2块单元进行评分。
  4. 选择和评估
    • 从 $ S'_2 $​中选择预测性能最好的K个单元,形成 $ S_2 $​。
    • 训练并评估 $ S_2 $​中的单元,并再次更新性能预测模型。
  5. 进一步迭代
    • 在第3次迭代中,将 $ S_2 $​中的每个单元扩展为具有3个块的单元的子集,得到 $ S'_3 \subseteq B_1:3 $。
    • 同样地,使用性能预测模型对 $ S'_3 $中的单元进行评分。
  6. 最终选择
    • 从 $ S'_3 $​中选择预测性能最好的K个单元,形成$ S_3 $​。
    • 训练并评估 $ S_3 $中的单元,选择最终的最佳单元作为搜索过程的获胜者。
  7. 搜索树的每个层级
    • 在搜索树的每个层级,“beam size” K 表示在该层级训练和评估的模型数量。这是一个重要的参数,因为它决定了在每一步中考虑的候选模型的数量。
  8. 块的数量
    • $ B_b $​表示在第b层可能的块的数量。随着b的增加,理论上可能的块组合数量会增加,但实际搜索过程中会使用性能预测模型来减少需要考虑的候选数量。

4 实验分析

(1)PNAS算法中使用的MLP集成预测器的准确性
image.png
图中上下部分分别展示了预测器在训练集上和未见过的更大模型集上的表现。

  • 训练集上的准确性:对于训练集,RNN通常比MLP有更高的相关系数,这意味着RNN在训练数据上能够更准确地预测模型的性能排名。
  • 泛化能力:当预测器应用于未见过的更大的模型时,MLP似乎比RNN有更好的表现。这表明尽管RNN在训练集上表现良好,但MLP在新数据上的泛化能力更强。

(2)神经架构搜索(NAS)、渐进式神经架构搜索(PNAS)和随机搜索这三种方法的相对效率
image.png

  • PNAS的效率:PNAS在训练和评估较少模型的情况下,能够快速地获得高性能的模型架构。这表明PNAS在搜索过程中具有很高的效率。
  • NAS的效率:与PNAS相比,NAS在达到相同平均准确率时需要训练和评估更多的模型。这意味着NAS的效率低于PNAS。
  • 随机搜索的效率:随机搜索在图4中作为基线,通常需要更多的尝试才能找到性能良好的模型,因此在效率上不如PNAS和NAS。
  • 性能稳定性:误差条和彩色区域显示了不同方法在多次试验中性能的波动情况。较短的误差条意味着方法的性能更加稳定。
  • 模型训练次数的影响:每个模型都训练了20个周期,这意味着不同方法在模型训练上的投入是相同的,但PNAS在模型选择上更为高效。
  • 搜索策略的重要性:结果强调了有效的搜索策略在神经架构搜索中的重要性,PNAS通过渐进式搜索和性能预测模型的使用,显著提高了搜索过程的效率。

5 思考

借鉴了PNN的结构设计的架构搜索算法。

相关实践学习
函数计算部署PuLID for FLUX人像写真实现智能换颜效果
只需一张图片,生成程序员专属写真!本次实验在函数计算中内置PuLID for FLUX,您可以通过函数计算+Serverless应用中心一键部署Flux模型,快速体验超写实图像生成的魅力。
目录
相关文章
|
5月前
|
算法 机器人 Python
【启发式算法】RRT*算法详细介绍(Python)
RRT(Rapidly-exploring Random Tree Star)* 是一种用于机器人路径规划的启发式算法,它是在经典的 RRT(Rapidly-exploring Random Tree)算法的基础上进行改进的。RRT* 通过优化路径质量,能够找到最短的路径,适用于高维空间中的路径规划问题。
808 2
|
2月前
|
机器学习/深度学习 数据采集 负载均衡
结合多种启发式解码方法的混合多目标进化算法,用于解决带工人约束的混合流水车间调度问题(Matlab代码实现)
结合多种启发式解码方法的混合多目标进化算法,用于解决带工人约束的混合流水车间调度问题(Matlab代码实现)
161 0
|
10月前
|
机器学习/深度学习 算法 文件存储
YOLOv11改进策略【模型轻量化】| MoblieNetV3:基于搜索技术和新颖架构设计的轻量型网络模型
YOLOv11改进策略【模型轻量化】| MoblieNetV3:基于搜索技术和新颖架构设计的轻量型网络模型
822 10
YOLOv11改进策略【模型轻量化】| MoblieNetV3:基于搜索技术和新颖架构设计的轻量型网络模型
|
10月前
|
机器学习/深度学习 算法 文件存储
RT-DETR改进策略【模型轻量化】| MoblieNetV3:基于搜索技术和新颖架构设计的轻量型网络模型
RT-DETR改进策略【模型轻量化】| MoblieNetV3:基于搜索技术和新颖架构设计的轻量型网络模型
354 4
RT-DETR改进策略【模型轻量化】| MoblieNetV3:基于搜索技术和新颖架构设计的轻量型网络模型
|
10月前
|
机器学习/深度学习 算法 文件存储
神经架构搜索:自动化设计神经网络的方法
在人工智能(AI)和深度学习(Deep Learning)快速发展的背景下,神经网络架构的设计已成为一个日益复杂而关键的任务。传统上,研究人员和工程师需要通过经验和反复试验来手动设计神经网络,耗费大量时间和计算资源。随着模型规模的不断扩大,这种方法显得愈加低效和不够灵活。为了解决这一挑战,神经架构搜索(Neural Architecture Search,NAS)应运而生,成为自动化设计神经网络的重要工具。
|
5G 数据安全/隐私保护
如果已经链接了5Gwifi网络设备是否还能搜索到其他5Gwifi网络
当设备已经连接到一个5G Wi-Fi网络时,它仍然有能力搜索和发现其他可用的5G Wi-Fi网络。这里所说的“5G Wi-Fi”通常指的是运行在5GHz频段的Wi-Fi网络,而不是与移动通信中的5G网络(即第五代移动通信技术)混淆。
|
机器学习/深度学习 Python
深度学习笔记(九):神经网络剪枝(Neural Network Pruning)详细介绍
神经网络剪枝是一种通过移除不重要的权重来减小模型大小并提高效率的技术,同时尽量保持模型性能。
636 0
深度学习笔记(九):神经网络剪枝(Neural Network Pruning)详细介绍
|
机器学习/深度学习 算法 调度
【博士每天一篇文献-算法】Neurogenesis Dynamics-inspired Spiking Neural Network Training Acceleration
NDSNN(Neurogenesis Dynamics-inspired Spiking Neural Network)是一种受神经发生动态启发的脉冲神经网络训练加速框架,通过动态稀疏性训练和新的丢弃与生长策略,有效减少神经元连接数量,降低训练内存占用并提高效率,同时保持高准确性。
228 3
|
12月前
|
SQL 安全 网络安全
网络安全与信息安全:知识分享####
【10月更文挑战第21天】 随着数字化时代的快速发展,网络安全和信息安全已成为个人和企业不可忽视的关键问题。本文将探讨网络安全漏洞、加密技术以及安全意识的重要性,并提供一些实用的建议,帮助读者提高自身的网络安全防护能力。 ####
278 17
|
SQL 安全 网络安全
网络安全与信息安全:关于网络安全漏洞、加密技术、安全意识等方面的知识分享
随着互联网的普及,网络安全问题日益突出。本文将从网络安全漏洞、加密技术和安全意识三个方面进行探讨,旨在提高读者对网络安全的认识和防范能力。通过分析常见的网络安全漏洞,介绍加密技术的基本原理和应用,以及强调安全意识的重要性,帮助读者更好地保护自己的网络信息安全。
231 10

热门文章

最新文章