随着人工智能的快速发展,许多数据安全问题不容忽视,在充分利用数据的同时保障用户的信息安全是一个很难实现的目标,从上述各种攻击与防御中可以看出,虽然联邦学习框架和相应的技术能够在一定程度上保护数据,但是还有许多安全问题有待解决。联邦学习攻击与防御的关键要素有模型的鲁棒性、模型训练和推理阶段的通信效率等。本文总结了如下5个可能的研究方向。
●防御方法更加鲁棒。尽管本文介绍了许多可以在联邦学习中免受攻击的防御方法,但这些方法都有局限性,通常一种防御方法只能防御一种攻击,当联邦学习中存在多种攻击时,单一的防御方法显然是不够的。而且,同一种防御方法在不同的终端和模型(改动不大)中防御效果也不一样,可能会失效,甚至有时因为一些数据集的改变或者模型的微小改动就会对防御产生很大的影响,这些都是鲁棒性不足的表现。目前还没有鲁棒性非常高的防御方法可以同时针对多个不同的攻击进行有效的防御,甚至有些攻击还没有相应的防御方法。因此,找到一种鲁棒性更高的防御方法是非常有必要的方向之一。
●攻击更加多样。攻击与防御是密不可分的,只有攻击一直发展,防御才会一直进步,而且有些防御是基于攻击的思路发展而来的。因此,对攻击研究得透彻,可以在一定程度上促进防御的发展,从而促进联邦学习更快地发展。具体地,应基于上述攻击方法进行更新迭代,从多个方位进行创新。
●提高通信效率。由于机器学习通常需要大量的计算,资源管理在实现相关可持续和高效的联邦学习解决方案方面发挥着重要作用。而在这方面,很少有工作将边缘计算集成到联邦学习,以支持具有额外计算资源的终端设备,这是一个需要发展的方向。如果在联邦学习过程中使用过多防御措施或加密措施,将不可避免地增加计算量,通常也会增加服务器的通信负担,严重时会导致服务器拒绝服务。同时由上述方法(局部更新、模型压缩)可知,每种方法的准确性和通信效率是相互制约的,它们之间的权衡非常重要,因此,如何在保证数据安全的基础上保证通信效率和精度是今后非常必要的研究方向之一。
●探索异构联邦学习。目前,隐私和鲁棒性研究大多集中在具有同构模型架构的联邦学习范式中,而现有的隐私保护技术和攻击防御机制是否适用于具有异构模型架构的联邦学习仍未得到充分的实证性研究。因此,将现有的攻击与防御方法推广到异构联邦学习是非常有价值的,具体可以从联邦个性化学习、研究新的异构性定义、快速确定联邦网络中的异构性水平等方向进行。
●模型可解释。模型可解释性是指可以将模型解释或表达成可理解的术语9山。这不仅是未来联邦学习的研究方向,也是人工智能的研究方向。目前,相关研究人员也许知道机器学习能够很好地解决一个问题,但对于解决原理,却知之甚少。相对于传统的机器学习,联邦学习会进一步提高模型的复杂度,缺乏可解释性会导致联邦学习在应用过程中存在潜在威胁,提高联邦学习模型的可解释性有利于提前解决联邦学习落地所带来的潜在威胁,因此这也是相关研究人员努力的方向之一。
联邦学习是一个富有前途的研究方向,它以打破“数据孤岛”和保护用户隐私而闻名,目前已经吸引了大量的研究者进行相关领域的研究,并取得了一定的成就,也得到了广泛认可。虽然联邦学习能解决一些现实问题,但仍然存在许多潜在的威胁,未来还需深入研究存在的安全问题加快处理联邦学习面临的挑战,共同推动联邦学习进一步发展为解决数据安全问题的首要利器。