AAAI 2023 | 超越SOTA 3.27%,上交大等提出自适应本地聚合新方法

简介: AAAI 2023 | 超越SOTA 3.27%,上交大等提出自适应本地聚合新方法

本文介绍的是一篇收录于 AAAI 2023 的论文,论文由位于上海交通大学的上海市可扩展计算与系统重点实验室、贝尔法斯特女王大学的华扬老师和路易斯安那州立大学的王灏老师共同完成。




该论文提出了一种用于联邦学习的自适应本地聚合方法,通过从全局模型中自动捕获客户机所需信息的方式来应对联邦学习中的统计异质性问题。作者对比了 11 个 SOTA 模型,并取得了超越最优方法 3.27% 的优异表现。作者其中的自适应本地聚合模块应用到其他联邦学习方法上取得了最多 24.19% 的提升。


1 介绍


联邦学习(FL)通过将用户隐私数据保留在本地而不进行传播的方式,帮助人们在保护隐私的情况下,充分发掘用户数据中蕴含的价值。但由于客户机之间数据不可见,数据的统计异质性(数据非独立同分布(non-IID)和数据量不平衡现象)便成了 FL 的巨大挑战之一。数据的统计异质性使得传统联邦学习方法(如 FedAvg 等)很难通过 FL 过程训练得到适用于每个客户机的单一全局模型。


近年来,个性化联邦学习(pFL)方法因其应对数据统计异质性的能力受到了越来越多的关注。与寻求高质量全局模型的传统 FL 不同,pFL 方法的目标是借助联邦学习的协同计算能力为每个客户机训练适用于自身的个性化模型。现有的在服务器上聚合模型的 pFL 研究可以分为以下三类:


(1) 学习单个全局模型并对其进行微调的方法,包括 Per-FedAvg 和 FedRep;

(2) 学习额外个性化模型的方法,包括 pFedMe 和 Ditto;

(3) 通过个性化聚合(或本地聚合)学习本地模型的方法,包括 FedAMP、FedPHP、FedFomo、APPLE 和 PartialFed。


类别(1)和(2)中的 pFL 方法将全局模型中的所有信息用于本地初始化(指在每次迭代的局部训练之前初始化局部模型)。然而,在全局模型中,只有提高本地模型质量的信息(符合本地训练目标的客户机所需信息)才对客户机有益。全局模型的泛化能力较差是因为其中同时存在对于单一客户机来说需要和不需要的信息。因此,研究者们提出类别(3)中的 pFL 方法,通过个性化聚合捕获全局模型中每个客户机所需的信息。但是,类别(3)中的 pFL 方法依旧存在(a)没有考虑客户机本地训练目标(如 FedAMP 和 FedPHP)、(b)计算代价和通讯代价较高(如 FedFomo 和 APPLE)、(c)隐私泄露(如 FedFomo 和 APPLE)和(d)个性化聚合与本地训练目标不匹配(如 PartialFed)等问题。此外,由于这些方法对 FL 过程做了大量修改,它们使用的个性化聚合方法并不能被直接用于大多数现有 FL 方法。


为了从全局模型中精确地捕获客户机所需信息,且相比于 FedAvg 不增加每一轮迭代中的通讯代价,作者提出了一种用于联邦学习的自适应本地聚合方法(FedALA)。如图 1 所示,FedALA 在每次本地训练之前,通过自适应本地聚合(ALA)模块将全局模型与本地模型进行聚合的方式,捕获全局模型中的所需信息。由于 FedALA 相比于 FedAvg 仅使用 ALA 修改了每一轮迭代中的本地模型初始化过程,而没有改动其他 FL 过程,因此 ALA 可被直接应用于大多数现有的其他 FL 方法,以提升它们的个性化表现。


图 1:在第次迭代中客户机上的本地学习过程


2 方法


2.1 自适应本地聚合(ALA)


图 2:自适应本地聚合(ALA)过程


自适应本地聚合(ALA)过程如图 2 所示。相比于传统联邦学习中直接将下载的全局模型盖本地模型得到本地初始化模型的方式(即),FedALA 通过为每个参数学习本地聚合权重,进行自适应本地聚合。


其中,作者把这一项称之为“更新”。外,作者通过逐元素权重剪枝方法实现正则化并将中的值限制在 [0,1] 中。

因为深度神经网络(DNN)的较低层网络相比于较高层倾向于学习相对更通用的信息,而通用信息是各个本地模型所需信息,所以全局模型中较低层网络中的大部分信息与本地模型中较低层网络所需信息一致。为了降低学习本地聚合权重所需的计算代价,作者引入一个超参数 p 来控制 ALA 的作用范围,使得全局模型中较低层网络参数直接覆盖本地模型中的较低层网络,而只在较高层启用 ALA。



其中,表示中的神经网络层数(或神经网络块数),中的低层网络形状一致,则与中剩下的 p 层高层网络形状一致。


作者将中的值初始化为 1,且在每一轮本地初始化过程中基于旧的更新为了进一步降低计算代价,作者采用随机采样 s



其中,更新的学习率。作者在学习的过程中,将除之外的其他可训练参数冻结。


图 3:在 MNIST 和 Cifar10 数据集上 8 号客户机的学习曲线


通过选择较小的 p 值,在几乎不影响 FedALA 表现的情况下,大幅度地降低 ALA 中训练所需的参数。此外,如图 3,作者观察到:一旦在第一次训练将其训练到收敛,即使在后续迭代中训练,其对本地模型质量也没有很大影响。也就是说,每个客户机可以复用旧的实现对其所需信息的捕获。作者采取在后续迭代中微调的方式,降低计算代价。


2.2 ALA 分析


在不影响分析的情况下,为了简便起见,作者忽略并设根据上述公式可以得到,其中代表作者可以把在 ALA 中更新看成更新



梯度项在每一轮中都做了逐元素地缩放。不同于本地模型训练(或 fine-tuning)方法,上述对的更新过程能够感知到全局模型中的通用信息。在不同的迭代轮数之间,动态变化的为 ALA 模块引入了动态信息,使其 FedALA 容易适应复杂的环境。


3 实验


作者在实际(practical)数据异质环境下的 Tiny-ImageNet 数据集上用 ResNet-18 进行了对超参数 s 和 p 的对 FedALA 影响的研究,如表 1 所示。对于 s 来说,采用越多的随机采样的本地训练数据用于 ALA 模块学习可以使个性化模型表现更好,但也同时增加了计算代价。在使用 ALA 的过程中,可以根据每个客户机的计算能力调整 s 的大小。从表中可以得知,即使使用极小的 s(如 s=5),FedALA 依旧具有杰出的表现。对于 p 来说,不同的 p 值对个性化模型的表现几乎没有影响,在计算代价方面却有着巨大的差别。这一现象也从一个侧面展示了 FedRep 等方法,将模型分割后保留靠近输出的神经网络层在客户机不上传的做法的有效性。使用 ALA 时,我们可以采用较小且合适的 p 值,在保证个性化模型表现能力的情况下,进一步降低计算代价。


表 1:关于超参数和对 FedALA 影响的研究


作者在病态(pathological)数据异质环境和实际(practical)数据异质环境下,将 FedALA 与 11 个 SOTA 方法进行了对比和详细分析。如表 2 所示,数据显示 FedALA 在这些情况下的表现都超越了这 11 个 SOTA 方法,其中 “TINY” 表示在 Tiny-ImageNet 上使用 4-layer CNN。例如,FedALA 在 TINY 情况下比最优基线(baseline)高了 3.27%。


表 2:病态和实际数据异质环境下的实验结果


此外,作者也在不同异质性环境和客户机总量情况下评估了 FedALA 的表现。如表 3 所示,FedALA 在这些情况下依旧保持着优异的表现。


表 3:其他实验结果


根据表 3 的实验结果,将 ALA 模块应用于其他方法可以获得最多 24.19% 的提升。


最后,作者还在 MNIST 上可视化了 ALA 模块的加入对原本 FL 过程中模型训练的影响,如图 4 所示。不激活 ALA 时,模型训练轨迹与使用 FedAvg 一致。一旦 ALA 被激活,模型便可以通过全局模型中捕获的其训练所需信息径直朝着最优目标优化。


图 4:4 号客户机上模型训练轨迹的可视化图


相关文章
|
9月前
|
机器学习/深度学习 运维 算法
关于具身机器人的视觉机制的建立
本文提出了一种类人视觉机制的具身机器人框架,通过“目标驱动、TOKEN预设、草图生成、异常处理”四大核心步骤,在动态环境中实现高效、灵活的任务执行能力。
297 0
|
11月前
|
Web App开发 人工智能 监控
搬运5款非常有特色的实用软件
本文分享了5款免费实用软件,提升工作生活效率。Q-Dir为四窗格文件管理器,支持多面板操作;Glass2k实现窗口透明化与置顶;3171.cn提供全能在线工具箱,涵盖视频、图片、文本处理等;gifcam专注屏幕GIF录制与编辑;Groupy实现窗口标签化管理,便捷切换程序组。快来探索这些高效工具吧!
252 1
|
7月前
|
数据采集 关系型数据库 MySQL
python爬取数据存入数据库
Python爬虫结合Scrapy与SQLAlchemy,实现高效数据采集并存入MySQL/PostgreSQL/SQLite。通过ORM映射、连接池优化与批量提交,支持百万级数据高速写入,具备良好的可扩展性与稳定性。
|
机器学习/深度学习 安全 算法
十大主流联邦学习框架:技术特性、架构分析与对比研究
联邦学习(FL)是保障数据隐私的分布式模型训练关键技术。业界开发了多种开源和商业框架,如TensorFlow Federated、PySyft、NVFlare、FATE、Flower等,支持模型训练、数据安全、通信协议等功能。这些框架在灵活性、易用性、安全性和扩展性方面各有特色,适用于不同应用场景。选择合适的框架需综合考虑开源与商业、数据分区支持、安全性、易用性和技术生态集成等因素。联邦学习已在医疗、金融等领域广泛应用,选择适配具体需求的框架对实现最优模型性能至关重要。
2592 79
十大主流联邦学习框架:技术特性、架构分析与对比研究
|
9月前
|
数据采集 安全 新制造
数据要素市场的未来趋势:机遇与挑战并存
本文探讨了数据要素市场化改革的时代意义,分析了当前市场发展现状,并展望了未来六大趋势。在政策、技术、应用等多重机遇推动下,数据要素市场正迎来快速发展,但仍面临制度、技术、安全等挑战。各方需协同努力,推动市场健康可持续发展,助力数字经济高质量升级。
252 0
|
人工智能 算法 语音技术
Video-T1:视频生成实时手术刀!清华腾讯「帧树算法」终结闪烁抖动
清华大学与腾讯联合推出的Video-T1技术,通过测试时扩展(TTS)和Tree-of-Frames方法,显著提升视频生成的连贯性与文本匹配度,为影视制作、游戏开发等领域带来突破性解决方案。
417 4
Video-T1:视频生成实时手术刀!清华腾讯「帧树算法」终结闪烁抖动
|
10月前
|
数据采集 自然语言处理 搜索推荐
Python内置函数ord()详解
`ord()` 是 Python 中用于将单个字符转换为对应 Unicode 码点的核心函数,支持 ASCII、多语言字符及特殊符号。其返回值为整数(范围 0-1114111),适用于字符编码验证、数据清洗、自定义排序、基础加解密等场景。使用时需注意参数长度必须为 1,否则会触发 `TypeError`。结合 `chr()` 函数可实现双向转换,进阶技巧包括多字节字符处理、编码范围检测及字符分类验证等。
|
12月前
|
存储 人工智能 运维
|
存储 人工智能 JavaScript
构建企业AI的信任与信心基石:从认知到实践的全面升级
本文探讨企业在人工智能(AI)广泛应用背景下面临的信任与信心挑战,提出通过数据安全、技术透明度及技能认证构建信任体系。重点介绍生成式人工智能认证(GAI),其能助力企业培养AI人才,提升团队专业能力。文章还建议企业加强内部培训、外部合作与实战应用评估,全方位推动AI战略落地,为企业发展提供支持。
|
关系型数据库 测试技术 分布式数据库
刷新世界纪录!阿里云PolarDB凭借创新的「三层解耦」架构刷新TPC-C基准测试世界纪录
刷新世界纪录!阿里云PolarDB凭借创新的「三层解耦」架构刷新TPC-C基准测试世界纪录

热门文章

最新文章