CVPR 2022 | 联邦学习审计隐私新手段,田纳西大学等提出生成式梯度泄露方法GGL

简介: CVPR 2022 | 联邦学习审计隐私新手段,田纳西大学等提出生成式梯度泄露方法GGL
本文提 出一种利用生成 模型作为图片先验的梯度攻击方法GGL,由来自美国田纳西大学,美国橡树岭国家实验室,和谷歌共同完成,论文已被 CVPR 2022 接收。


联邦学习 (federated learning) 是一种在中心服务器 (server)的协调下利用分散在各用户 (client)的本地数据集协同训练模型的一种分布式训练模式。为保证参与方隐私,训练过程中,训练数据不会离开本地,取而代之的是模型相关的信息(例如模型架构,参数梯度)会被共享至服务器端,从而降低了数据泄露的风险。

然而这种梯度共享的训练方案并非绝对安全:尽管避免了中央服务器直接接触用户数据,服务器仍可使用梯度攻击从交换的参数梯度中复原用户的本地训练数据。方法是先随机生成虚拟训练数据,并以此生成虚拟梯度,再以缩小虚拟梯度与真实梯度差距为优化目标通过梯度下降反复迭代,即可还原用户私人数据。此种攻击被称为梯度泄露(gradient leakage)[1] 或梯度逆转(gradient inversion)[2]。

为防御此种梯度攻击,一些研究提出用户在上传前可先对梯度信息添加噪声扰动或者进行有损变换(例如梯度裁剪或梯度稀疏化处理)来更好的保障信息安全。此前研究 [3] 也表明混淆数据表征(data representation)并依此生成梯度信息亦可有效防止梯度泄露。

那么如何检验此类隐私防御的安全性?最直观的想法是可引入先验信息来补偿防御造成的信息损失。基于这一思想,本文探索一种新的梯度攻击方式 – 生成式梯度泄露(Generative Gradient Leakage,GGL)。相较于传统梯度攻击,GGL 通过借助生成对抗网络(Generative Adversarial Network, GAN)在公开数据集上提取的先验信息以及适应性梯度变换,可以从更少量有噪音的梯度信息中复原隐私数据,从而获得更强的防御耐受力。我们希望这种方法可作为一种实证研究的手段来帮助审计隐私防御下的数据泄露。

这项由美国田纳西大学,美国橡树岭国家实验室,和谷歌共同完成的研究已被 CVPR 2022 接收。



方法
给定训练数据 x,从其交换的梯度信息 y 中恢复训练数据的过程可被视为一个逆问题:



其中是前向运算符,用来计算损失并返回模型梯度。当用户在本地采取防御措施时,问题变为:


其中是用户施加的有损梯度变换,而是随机噪声。由于此问题高度非线性且不适定,以往的方法试图通过如下形式来求解:


其中是一种距离度量,而是标准图像先验(如 total variation)。尽管这种方法可以有效从真实梯度中还原训练图像,当面临低保真且有噪声的梯度信息时,往往难以还原出真实的自然图片。

图 1 - 方法整体思想

近年来深度学习模型已在压缩感知中被作为图片先验广泛运用。受此启发,本文利用在公开数据集上预训练的生成模型(GAN)作为先验,在 GAN 的潜在空间中寻找最接近真实图片梯度的隐形表达,以此来降低搜索空间并提升生成图片质量,同时在优化过程中可以采取相同变换进行适应性攻击。给定预训练生成模型,我们求解以下优化问题:


其中为 GAN 的潜在空间,而是正则化项。由于此优化问题非凸,选取合适的优化策略对于求解后生成的图像质量非常重要。此前梯度攻击中多选取基于梯度的优化算法,如 Adam 和 L-BFGS。然而这类优化器的效果非常依赖起始点的选择,往往需要多次尝试才能找到相对合适的解。并且我们发现,对于复杂的生成器,梯度优化算法非常容易收敛至局部最优,导致最后还原效果很差。因此,我们探索了两种无梯度的优化算法,即 Bayesian Optimization (BO) 和 Covariance Matrix Adaptation Evolution Strategy (CMA-ES)。

实验

本文在 ImageNet 图像分类和 CelebA 人脸数据集上进行了实验验证。图 1 和表 1 分别定性和定量地比较了不同优化方法的还原效果。可以看出基于梯度和无梯度优化算法在 CelebA 数据集上还原效果相近。然而,在更复杂的 ImageNet 数据集上,无梯度优化方法的还原结果明显优于基于梯度的算法,其中,CMA-ES 还原效果最优。因此,GGL 选取 CMA-ES 在作为默认优化器进行后续实验。

图 2 - 不同优化器效果的视觉比较


表 1 - 不同优化器效果的定量比较

图 3 和图 4 分别在 CelebA 和 ImageNet 数据集上比较了 GGL 和现存攻击方法在面对不同防御的情况下的还原效果。从视觉比较及表 2 的定量结果中可以看到,相比于其他还原方法,借助于生成模型的图片先验,GGL 即便是在面对较强的防御方法时也可以从有损失的梯度中有效还原出大部分的图片信息。

图 3 - CelebA 实验结果

图 4 - ImageNet 实验结果

表 2 - 定量比较结果

图 5 展示了 GGL 面对梯度噪声和梯度剪裁,以及两者结合的防御情况下的还原效果。可以看到,与仅添加噪声或梯度剪裁相比,当面对梯度噪声 + 剪裁时,GGL 还原图片的质量有所下降,但仍可一定程度上还原原始图片的信息。

图 5 - 组合防御结果

通过利用在公开数据集上提取的先验信息以及适应性梯度变换,GGL 在面对一些隐私防御时仍可有效还原出大部分图片信息,从而可以作为一种审计隐私手段来分析数据泄露风险。

参考文献[1] Zhu, Ligeng, et al. "Deep leakage from gradients." Advances in Neural Information Processing Systems. 2019.[2] Geiping, Jonas, et al. "Inverting gradients-how easy is it to break privacy in federated learning?." Advances in Neural Information Processing Systems. 2020.[3] Sun, Jingwei, et al. "Soteria: Provable defense against privacy leakage in federated learning from representation perspective." Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2021.

相关文章
|
存储 机器学习/深度学习 自然语言处理
大语言模型隐私防泄漏:差分隐私、参数高效化
大语言模型隐私防泄漏:差分隐私、参数高效化
1306 4
|
SQL JSON 关系型数据库
Flink CDC实践(二)
Flink CDC实践(二)
|
机器学习/深度学习 安全 算法
《联邦学习:打破数据孤岛,实现隐私保护下的跨机构协作》
联邦学习是一种分布式机器学习技术,核心理念为“数据不动模型动”,即在不交换原始数据的前提下,各机构基于本地数据独立训练模型,并通过加密方式上传模型参数更新至中央服务器进行聚合,从而提升全局模型性能。它分为横向、纵向和联邦迁移学习三种类型,分别适用于不同场景下的数据协作。联邦学习有效解决了数据隐私保护与跨机构协作的难题,在医疗、金融等领域展现出巨大潜力,推动了智能化变革。尽管仍面临通信效率、安全性和可解释性等挑战,但其前景广阔。
1375 25
|
机器学习/深度学习 自然语言处理 算法
《深度解析:批量、随机和小批量梯度下降的区别与应用》
梯度下降算法是优化模型参数的核心工具,包括批量梯度下降(BGD)、随机梯度下降(SGD)和小批量梯度下降(MBGD)。BGD使用全部数据计算梯度,收敛稳定但计算量大;SGD每次仅用一个样本,更新快但波动大;MBGD则取两者折中,使用小批量样本,兼具稳定性和效率。选择合适的变体需考虑数据规模、计算资源及精度要求。
785 1
|
JSON 文字识别 算法
使用InternVL、LMDeploy和GTE搭建多模态RAG系统
如何将视觉大模型(VLM)与 多模态RAG 结合起来,创建服装搜索和搭配推荐!本文展示了InternVL模型在分析服装图像和提取颜色、款式和类型等关键特征方面的强大功能。
|
11月前
|
机器学习/深度学习 人工智能 自然语言处理
今日热门论文推荐:Seedream、LMM-R1、YuE、Gemini Embedding
由Cohere、SEACrowd等机构联手打造,SEA-VL是一个面向东南亚地区的多文化视觉-语言数据集,填补了AI模型在该地区文化细微差别理解上的空白。该工作通过众包、爬取和生成三种方式收集了128万张文化相关图像,结合本地贡献者确保数据的高质量和多样性,推动了更具包容性的AI发展。
293 13
|
人工智能 自然语言处理 安全
已解决:国内如何使用Claude 3.5 Sonnet \ claude官网中文入口
已解决:国内如何使用Claude 3.5 Sonnet \ claude官网中文入口
2435 20
|
机器学习/深度学习 存储 人工智能
【AI系统】Tensor Core 架构演进
自2017年Volta架构推出以来,英伟达的GPU架构不断进化,从Volta的张量核心(Tensor Core)革新,到Turing的整数格式支持,再到Ampere的稀疏矩阵计算优化,以及Hopper的FP8张量核心和Transformer引擎,直至2024年的Blackwell架构,实现了30倍的LLM推理性能提升。每一代架构都标志着深度学习计算的重大突破,为AI技术的发展提供了强大的硬件支持。
728 1
|
Java 数据库连接 mybatis
在Spring Boot应用中集成MyBatis与MyBatis-Plus
在Spring Boot应用中集成MyBatis与MyBatis-Plus
654 5
|
数据可视化
R语言多元(多变量)GARCH :GO-GARCH、BEKK、DCC-GARCH和CCC-GARCH模型和可视化
R语言多元(多变量)GARCH :GO-GARCH、BEKK、DCC-GARCH和CCC-GARCH模型和可视化