ICCV 2019 | 四小时搜索NN结构,厦大提出快速NAS检索方法

本文涉及的产品
文件存储 NAS,50GB 3个月
简介: ICCV 2019 将于 10.27-11.2 在韩国首尔召开,本次会议总共接受 1077 篇,总提交 4303 篇,接收率 25%。厦门大学媒体分析与计算实验室共有 6 篇论文接受其中两篇为 oral。

本文是论文一作郑侠武对论文《multinomial distribution learning for effective neaural architecture search》的解读。该论文由厦门大学媒体分析与计算实验室(纪荣嵘团队)、华为诺亚方舟实验室合作完成,旨在降低神经网络结构检索(NAS)中搜索消耗的计算量。


摘要


近年来,通过神经架构搜索(NAS)算法生成的架构在各种计算机视觉任务中获得了极强的的性能。然而,现有的 NAS 算法需要再上百个 GPU 上运行 30 多天。在本文中,我们提出了一种基于多项式分布估计快速 NAS 算法,它将搜索空间视为一个多项式分布,我们可以通过采样-分布估计来优化该分布,从而将 NAS 可以转换为分布估计/学习。除此之外,本文还提出并证明了一种保序精度排序假设,进一步加速学习过程。在 CIFAR-10 上,通过我们的方法搜索的结构实现了 2.55%的测试误差,GTX1080Ti 上仅 4 个 GPU 小时。在 ImageNet 上,我们实现了 75.2%的 top1 准确度。


背景介绍


给定数据集,神经架构搜索(NAS)旨在通过搜索算法在巨大的搜索空间中发现高性能卷积架构。NAS 在各个计算机视觉领域诸如 图像分类,分割,检测等取得了巨大的成功。

微信图片_20211201205544.jpg

图一:神经网络结构检索
如图一显示,NAS 由三部分组成:搜索空间,搜索策略和性能评估:传统的 NAS 算法在搜索空间中采样神经网络结构并估计性能,然后输入到搜索策略算法中进行更新,一直迭代至收敛。尽管取得了显着进步,但传统的 NAS 方法仍然受到密集计算和内存成本的限制。
例如,强化学习(RL)方法 [1] 需要在 20,000 个 GPU 上训练 4 天,以此训练和评估超过 20,000 个神经网络。最近 [2] 中提出的可微分的方法可以将搜索空间松弛到连续的空间,从而可以通过在验证集上的梯度下降来优化体系结构。然而,可微分的方法需要极高的 GPU 显存,并且随着搜索空间的大小线性增长。


主要方法


1. 精度排序假设


大多数 NAS 方法使用标准训练和验证对每个搜索的神经网络结构进行性能评估,通常,神经网络必须训练到收敛来获得最终的验证集的评估,这种方式极大的限制了 NAS 算法探索搜索空间。但是,如果不同结构的精度排序可以在几个训练批次内获取,为什么我们需要在将神经网络训练到收敛?例如下图二,我们随机采样四个网络结构(LeNet,AlexNet,ResNet 和 DenseNet)在不同的次数下,在训练集和测试集中的性能排名是一致的(性能排名保持为 ResNet-18> DenseNet-BC> AlexNet> LeNet 在不同 网络和训练时代)。

微信图片_20211201205540.jpg

图 2 精度排序假设
基于这一观察,我们对精度排序提出以下假设:在训练过程中,当一个网络结构 A 的精度比网络结构 B 要好,那么当收敛的时候,网络结构 A 的表现也优于网络结构 B.


2. 搜索空间


在搜索空间上,我们主要延续了 [2] 中的搜索空间,

微信图片_20211201205537.jpg

图 3 搜索空间
具体搜索空间如图 3 所示:(a)单元可以堆叠起来形成一个卷积网络,或者递归连接形成一个循环网络。(b)一个单元(cell)作为最终架构的基石,单元是由 N 个有序节点组成的全连接有向无环图。
每个节点都是一个特征(神经网络的卷积特征或者其他特征),每个有向边是对该节点的某种运算。假设每个单元有两个输入节点和一个输出节点。对于卷积单元,输入节点被定义为前两层的单元输出 [1][2]。通过对所有中间节点应用及连操作(concatenation)来获得最终的单元的输出。


3. 搜索算法


针对精度排序假设,我们设计了一套基于多项式分布学习的神经网络结构检索算法,首先对于整个搜索空间,我们假设图 3 中的搜索空间为一个多项式分布,最开始的时候,每一个多项式分布的初始概率值保持一致,即假设有 8 个可选的操作,那么搜索空间中每一个的概率为 1/8。在训练的时候,每一个训练的 epoch,我们首先对网络结构进行采样。采样结束后,对于一个节点输入的操作为具体边对应采样的点:

image.gif


进行采样后,进行训练以及测试,在搜索空间中我们记录下每一个操作被采样的次数以及精度。并且计算针对训练批次的差分以及精度的差分:

微信图片_20211201205534.jpg


利用计算好的差分,我们更新每一个操作的概率:

微信图片_20211201205531.jpg


从上面的公式中,对于搜索空间中的两个操作,我们主要进行下面的比较,当一个操作 A 与另外一个操作 B 之间进行比较,当 A 的训练批次比 B 要少,但是精度却更高,我们认为 A 比 B 要好,所以增加 A 的概率的同时的减少 B 的概率,反之亦然:当 A 比 B 要差,把 A 的概率分给 B。
最后当多项式分布仅有一个选择,或者墒少于一定的值的时候(在实验中,基本上 150 个 epoch 之后基本上结构就会稳定不变),我们认为算法收敛。


实验


精度排序假设的论证


我们首先对精度排序假设进行论证,论证方式为:随机从搜索空间中采样网络结构,训练这些网络结构,计算每一个中间 epoch 与最终收敛时候的 epoch 的排序精度。其中评价指标为 kendall』s tau:具体阐述了两个排序之间的准确度,两个排序中保持一致的对数。

微信图片_20211201205529.jpg

图 4 精度排序假设实验。
在上图中我们可以发现,kendall's Tau 在所有的 epoch 中保持了很高的准确度(kendall』s Tau 范围为 [-1,1],0 代表两个 rank 的一致的概率为 50%。),特别的,我们计算 kendall's Tau 的平均值为 0.47,代表不同的 epoch,评价指标的准确度为 74%。


神经网络结构检索实验


根据之前的文章 [1][2][3],我们主要设置了三个实验,(1) 直接在 cifar10 上面搜索,训练以及测试,(2) 在 cifar10 上搜索,将网络结构进行迁移,迁移到 ImageNet 数据集进行训练测试。(3)直接在 ImageNet 上搜索训练以及测试。对应的实验结果为:(1)搜索数据集:cifar10;训练数据集:cifar10;测试数据集:cifar10;该实验具体搜索时间上的性能指标以及测试错误率如下表显示:

微信图片_20211201205525.jpg


搜索到最好的结构为:

微信图片_20211201205522.jpg


(2)搜索数据集:cifar10;训练数据集:ImageNet;测试数据集:ImageNet;该实验具体搜索时间上的性能指标以及测试错误率如下表显示: 

微信图片_20211201205518.png


(3)搜索数据集:ImageNet;训练数据集:ImageNet;测试数据集:ImageNet;该实验具体搜索时间上的性能指标以及测试错误率如下表显示:

微信图片_20211201205516.jpg


对应的网络结构为:

微信图片_20211201205514.jpg


结论
在本文中,我们介绍了第一种基于分布式学习神经网络结构搜索算法。我们的算法基于新颖的精度排序假设,该假设能够进一步缩短搜索时间,从而利用比较早期训练过程中的架构性能的排序来优化搜索算法。从我们的假设中受益,提出的搜索算法大大降低了计算量,同时在 CIFAR-10 和 ImageNet 上表现出了出色的模型精度以及高效的搜索效率。此外,我们提出的方法可以直接在 ImageNet 上进行搜索,相比于人类设计的网络和其他 NAS 方法更优越。


[1] Elsken T, Metzen J H, Hutter F. Neural architecture search: A survey[J]. arXiv preprint arXiv:1808.05377, 2018.

[2] Liu H, Simonyan K, Yang Y. Darts: Differentiable architecture search[J]. arXiv preprint arXiv:1806.09055, 2018.

[3] Han Cai and Ligeng Zhu and Song Han ProxylessNAS: Direct Neural Architecture Search on Target Task and Hardware. International Conference on Learning Representations 2019.

[4] Xiawu Zheng, Rongrong Ji∗ , Lang Tang , Baochang Zhang, Jianzhuang Liu, Qi Tian Multinomial Distribution Learning for Effective Neural Architecture Search. ICCV 2019

相关实践学习
基于ECS和NAS搭建个人网盘
本场景主要介绍如何基于ECS和NAS快速搭建个人网盘。
阿里云文件存储 NAS 使用教程
阿里云文件存储(Network Attached Storage,简称NAS)是面向阿里云ECS实例、HPC和Docker的文件存储服务,提供标准的文件访问协议,用户无需对现有应用做任何修改,即可使用具备无限容量及性能扩展、单一命名空间、多共享、高可靠和高可用等特性的分布式文件系统。 产品详情:https://www.aliyun.com/product/nas
相关文章
|
存储 网络安全 文件存储
内网穿透:实现公网访问内网群晖NAS的方法
内网穿透:实现公网访问内网群晖NAS的方法
|
3月前
|
存储 人工智能 数据管理
"AI大改造,让NAS焕发新生!智能分类、秒速检索、隐私守护、故障先知……你的数据存储神器全面升级,告别传统,拥抱未来智能NAS新纪元!"
【8月更文挑战第14天】大数据时代催生了对高效数据管理的需求,传统NAS面临挑战。AI技术的应用为NAS带来智能数据分类、内容分析检索、安全防护及预测性维护等功能。通过示例代码展示了AI如何简化数据管理、提升用户体验、保障数据安全及提高系统稳定性。集成AI的NAS正引领数据存储新时代。
78 3
|
6月前
|
Linux 文件存储 数据安全/隐私保护
百度搜索:蓝易云【centos以cifs协议挂载nas】
通过按照以上步骤,你应该能够在CentOS上使用CIFS协议成功挂载NAS。请根据你的实际情况替换相应的参数,并根据需要进行自动挂载的配置。如果遇到任何问题,可以参考CIFS官方文档或社区寻求更多帮助。
89 0
|
机器学习/深度学习 人工智能 文件存储
AAAI 2023 | 打破NAS瓶颈,新方法AIO-P跨任务预测架构性能
AAAI 2023 | 打破NAS瓶颈,新方法AIO-P跨任务预测架构性能
169 0
|
机器学习/深度学习 算法 数据可视化
ECCV 2022 | 谷歌提出Data-free NAS,网络搜索仅需一个预训练模型
ECCV 2022 | 谷歌提出Data-free NAS,网络搜索仅需一个预训练模型
191 0
|
机器学习/深度学习 算法 文件存储
神经网络架构搜索(NAS)基础入门
神经网络架构搜索(NAS)基础入门
1223 0
神经网络架构搜索(NAS)基础入门
|
机器学习/深度学习 算法 大数据
提升神经网络架构搜索稳定性,UCLA提出新型NAS算法
可微网络架构搜索能够大幅缩短搜索时间,但是稳定性不足。为此,UCLA 基于随机平滑(random smoothing)和对抗训练(adversarial training),提出新型 NAS 算法。
170 0
提升神经网络架构搜索稳定性,UCLA提出新型NAS算法
|
存储 运维 监控
阿里云的文件存储NAS使用心得
阿里云的文件存储NAS使用心得
369 0
|
运维 文件存储 对象存储
【运维知识进阶篇】用阿里云部署kod可道云网盘(配置Redis+MySQL+NAS+OSS)(三)
【运维知识进阶篇】用阿里云部署kod可道云网盘(配置Redis+MySQL+NAS+OSS)(三)
324 0
|
存储 机器学习/深度学习 弹性计算
阿里云文件存储NAS简介和购买流程
阿里云文件存储NAS是一个可共享访问,弹性扩展,高可靠,高性能的分布式文件系统。兼容POSIX文件接口,可支持上千台弹性计算ECS、容器服务ACK等计算节点共享访问,您无需修改应用程序,即可无缝迁移业务系统上云。 支持智能冷热数据分层,有效降低数据存储成本。广泛应用于企业级应用数据共享、容器、AI机器学习、Web 服务和内容管理、应用程序开发和测试、媒体和娱乐工作流、数据库备份等场景。
下一篇
无影云桌面