阿里云先知安全沙龙(上海站) ——大模型基础设施安全攻防

简介: 大模型基础设施的安全攻防体系涵盖恶意输入防御和基础设施安全,包括框架、三方库、插件、平台、模型和系统安全。关键漏洞如CVE-2023-6019(Ray框架命令注入)、CVE-2024-5480(PyTorch分布式RPC)及llama.cpp中的多个漏洞,强调了代码安全性的重要性。模型文件安全方面,需防范pickle反序列化等风险,建议使用Safetensors格式。相关实践包括构建供应链漏洞库、智能化漏洞分析和深度检测,确保全方位防护。

介绍

大模型基础设施的安全攻防体系主要包括恶意输入防御和基础设施安全两个方面。恶意输入防御通过检测和过滤异常数据,防止系统被外部攻击者利用。基础设施安全则涵盖框架安全、三方库安全、插件安全、平台安全、模型安全和系统安全等多个层面,确保从底层框架到整体系统的全方位防护。

image.png

漏洞和案例分享

框架安全

大模型基础设施的安全攻防主要涉及分布式计算框架Ray的使用。Ray是一个基于Python的分布式计算框架,广泛应用于AI机器学习领域。在安全方面,Ray的dashboard默认绑定在127.0.0.1,但在实际业务代码中通常会绑定到实际IP地址。此外,任务执行缺少校验机制,如果能够访问到节点,攻击者可以直接执行代码。因此,确保Ray社区和安全研究员对安全的看法一致,并采取相应的防护措施,是保障大模型基础设施安全的关键。

image.png

大模型基础设施的安全攻防中,CVE-2023-6019是一个值得关注的漏洞。该漏洞涉及Ray框架中的一个安全问题,即在执行命令时直接使用字符串拼接,这可能导致命令注入攻击。具体来说,攻击者可以通过构造恶意输入来控制命令的执行,从而获取系统权限或执行其他恶意操作。在设计和实现大模型基础设施时,必须重视代码的安全性,避免直接使用字符串拼接执行命令,而是采用更安全的方法来构建和执行命令,以防止此类漏洞被利用。

image.png

PyTorch是一个开源的Python机器学习库,广泛用于构建和训练深度学习模型。其分布式RPC框架允许跨多个设备或服务器进行远程过程调用,从而实现高效的分布式计算。然而,CVE-2024-5480和CVE-2024-48063等安全漏洞的存在表明,在使用PyTorch进行分布式计算时,必须注意潜在的安全风险,确保代码的安全性和系统的稳定性。

image.png

llama.cpp是一个主要由C++编写的框架,用于对各种大模型进行推理。它支持CPU推理,具有极高的效率优势。然而,历史上该框架的安全漏洞多位于模型文件解析和rpc_server部分,在使用时需要特别注意这些方面的安全防护,以确保大模型基础设施的安全性。

image.png

CVE-2024-23605是由Francesco Benvenuto发现的一个安全漏洞,该漏洞存在于gguf_init_from_file函数中。具体来说,header.n_kv与sizeof(struct gguf_kv)的乘积可能导致整数溢出,从而引发越界写操作。这种类型的漏洞可能被攻击者利用来执行任意代码或导致系统崩溃,在大模型基础设施的安全防护中需要特别关注此类潜在风险,并采取相应的措施进行修复和加固。

image.png

CVE-2024-32878是一个与未初始化变量相关的安全漏洞。该漏洞出现在代码中处理字符串长度检查的部分,当字符串长度为SIZE_MAX时,程序会提前退出以防止整数溢出。然而,在某些情况下,这可能导致未正确初始化的变量被释放(free),从而引发潜在的安全风险。在大模型基础设施中使用此类代码时,必须确保所有变量都已正确初始化,并且在释放前进行适当的检查,以避免类似的安全问题。

image.png

CVE-2024-42479是由360的7resp4ss发现的一个安全漏洞,该漏洞存在于llama.cpp框架中。具体来说,问题出现在ggml_backend_cpu_buffer_set_tensor函数中,其中使用了memcpy函数来复制数据,但没有正确处理缓冲区边界,可能导致越界写操作。这种类型的漏洞可能被攻击者利用来执行任意代码或导致系统崩溃,在大模型基础设施的安全防护中需要特别关注此类潜在风险,并采取相应的措施进行修复和加固。

image.png

模型文件安全

模型文件安全是大模型基础设施中一个重要的方面。攻击者可能会通过替换或投放畸形的模型文件来嵌入恶意代码,这些文件在加载时可能导致系统崩溃或执行恶意代码,为确保模型文件的安全性至关重要,需要采取措施防止未经授权的修改和恶意注入,以保护系统的稳定性和安全性。

image.png

在模型文件安全方面,pickle反序列化(pickle.load())是一个常见的风险点。许多框架都存在这个问题,通常只会在文档中申明模型文件可能存在恶意代码。例如,Ray广泛使用cloudpickle进行Python对象的序列化,而TensorFlow模型被视为代码,需要小心处理不可信的代码。transformers库要求用户启用TRUST_REMOTE_CODE=True来允许pickle.load()的调用,并建议使用Safetensors等更安全的模型文件格式,这些格式不包含执行代码,从而避免加载模型时的反序列化操作带来的风险。

image.png
image.pngimage.png

相关实践

大模型基础设施安全实践包括多个方面:平台特色功能融合专家经验,打造丰富、准确的大模型供应链漏洞库;智能化漏洞可达性分析基于大模型智能化收集分析漏洞信息,结合蓝军攻防积累,提供更精准的供应链漏洞可达性分析能力;大模型文件深度检测可识别命令注入、模型文件格式攻击等以大模型文件为媒介的供应链攻击。这些措施共同构成了大模型基础设施的安全评估和研究体系,涵盖三方库安全、框架安全、应用安全和系统安全等多个层面。

image.png

相关文章
|
4天前
|
安全 网络安全
先知安全沙龙 - 北京站 11月9日开启!
先知安全沙龙 - 北京站 11月9日开启!
|
4天前
|
云安全 安全 物联网
先知先行——灯塔系列城市沙龙 · 杭州站成功举办!
先知先行——灯塔系列城市沙龙 · 杭州站成功举办!
|
4天前
|
安全 网络安全
完整议程发布!先知安全沙龙 - 北京站 11月9日开启!
完整议程发布!先知安全沙龙 - 北京站 11月9日开启!
|
4天前
|
云安全 人工智能 安全
先知先行——灯塔系列城市沙龙 · 武汉站成功举办!
先知先行——灯塔系列城市沙龙 · 武汉站成功举办!
|
4天前
|
云安全 运维 监控
先知先行——灯塔系列城市沙龙 · 北京站成功举办!
先知先行——灯塔系列城市沙龙 · 北京站成功举办!
|
4天前
|
安全 网络安全
先知安全沙龙 - 上海站 12月14日开启!
先知安全沙龙 - 上海站 12月14日开启!
|
3月前
|
安全 JavaScript 前端开发
阿里云先知安全沙龙(西安站) ——浅谈XSS漏洞挖掘与构造思路
本文介绍了DOM-XSS构造、运算符的威力和模板字符串妙用三个主题。通过多个实例图解,详细展示了如何利用DOM特性构造XSS攻击、JavaScript运算符在代码中的巧妙应用,以及模板字符串在开发中的灵活运用。这些内容对提升Web安全意识和编程技巧具有重要参考价值。
|
3月前
|
机器学习/深度学习 人工智能 安全
阿里云先知安全沙龙(武汉站) ——AI赋能软件漏洞检测,机遇, 挑战与展望
本文介绍了漏洞检测的发展历程、现状及未来展望。2023年全球披露的漏洞数量达26447个,同比增长5.2%,其中超过7000个具有利用代码,115个已被广泛利用,涉及多个知名软件和系统。文章探讨了从人工审计到AI技术的应用,强调了数据集质量对模型性能的重要性,并展示了不同检测模型的工作原理与实现方法。此外,还讨论了对抗攻击对模型的影响及提高模型可解释性的多种方法,展望了未来通过任务大模型实现自动化漏洞检测与修复的趋势。
|
3月前
|
运维 供应链 安全
阿里云先知安全沙龙(武汉站) - 网络空间安全中的红蓝对抗实践
网络空间安全中的红蓝对抗场景通过模拟真实的攻防演练,帮助国家关键基础设施单位提升安全水平。具体案例包括快递单位、航空公司、一线城市及智能汽车品牌等,在演练中发现潜在攻击路径,有效识别和防范风险,确保系统稳定运行。演练涵盖情报收集、无差别攻击、针对性打击、稳固据点、横向渗透和控制目标等关键步骤,全面提升防护能力。
|
3月前
|
存储 缓存 运维
阿里云先知安全沙龙(上海站)——后渗透阶段主机关键信息自动化狩猎的实现与应用
本文介绍了在后渗透测试中使用LSTAR工具和PowerShell脚本进行RDP状态查询、端口获取及凭据收集的过程,强调了高强度实战场景下的OPSEC需求。通过MITRE ATT&CK框架的应用,详细阐述了凭证访问、发现和收集等关键技术,确保攻击者能够隐蔽、持续且高效地渗透目标系统,最终获取核心数据或控制权。文中还展示了SharpHunter等工具的自动化实现,进一步提升了操作的安全性和效率。

热门文章

最新文章