科技云报道:从数据到生成式AI,是该重新思考风险的时候了

简介: AI大模型成下一个 安全新战场

科技云报道原创。

OpenAI“宫斗”大戏即将尘埃落定。

自首席执行官Sam Altman突然被董事会宣布遭解雇、董事长兼总裁Greg Brockman辞职;紧接着OpenAI员工以辞职威胁董事会要求Altman回归;再到OpenAI董事会更换成员、Altman回归OpenAI。

表面上看,这似乎是一场针对一家独领风骚的技术初创公司控制权的争夺战,但从种种迹象来看,此次“宫斗”的导火索,更多应源自对AI未来发展理念的分歧:一派扛着“加速主义”旗帜,希望AI在技术精英的带领下加速前进改造世界;另一边则是以利他主义理论为根基、力求让AI在人类控制下发展的保守派别。
19418.jpg

从创造栩栩如生的艺术到如同真人般的精度模仿人类语言,生成式AI正在改写创新和自动化的规则。

AI大模型训练的高耗能、AI对语言情感和伦理道德的把握程度、AI对假消息和公众舆论的操纵、生成式AI在人类创新创造中的角色……在生成式AI加速奔跑的今天,有些问题依然值得我们细细思考。

AI大模型成下一个 安全新战场

今年三月,三星电子刚刚在企业内部引入ChatGPT服务不久,就发生了三起机密数据泄露事件。部分员工将涉及半导体生产的机密代码与内部会议信息输入ChatGPT端口,导致这些敏感资料被上传至美国服务器,极可能已经泄漏。事件发生后,三星迅速采取措施约束员工使用ChatGPT的场景和行为,也引发了行业对于这类大模型技术带来的数据隐私和安全问题的讨论。

客观而言,在互联网时代,任何向云端上传数据的行为都具有潜在的安全风险。云计算刚刚兴起的时代,就有很多企业担忧敏感数据被云服务商泄露,拒绝将其上传至云端。

时至今日,仍有大批企业在本地存储隐私数据来增强安全性,云服务商仍然没有完全赢得企业的信任。

而生成式AI的热潮则令这一问题雪上加霜。一方面,由于大模型训练、运营所需的成本极为高昂,极少有企业能够负担巨大的投资而在本地建设自有大模型服务。

另一方面,由云服务商提供的大模型服务在训练和交互时需要海量数据,尤其是特定领域的数据。大模型掌握的领域数据越多,特别是与企业研发、运营相关的数据越多,输出的效果往往越令人满意。

例如,企业开发人员使用AI代码辅助生成工具时,一般需要上传企业已有的代码库,使大模型给出更精准的代码预测结果;企业营销人员将过往的营销材料输入大模型,就可以自动生成高质量的营销内容,提升工作效率。

为此,企业和研究机构往往会收集包括用户生成内容的文本、图像等数据,这些原始训练数据中可能含有用户的敏感隐私信息。

如果数据采集不当、存在偏见或标签错误、数据被投毒,都有可能导致大模型产生错误输出、存在歧视或其他负面影响,同时数据在应用的过程中,也要面临数据泄露、隐私曝光等风险,这既存在法律风险,也会引发公众对AI的信任危机。

另外,提供大模型服务的云厂商一般会同时服务众多客户,而大模型在获得各个企业的数据后,如何将这些数据充分隔离在每个客户的服务范围之内,就成为了困扰云厂商与企业的一大难题。

一旦数据的隔离失败,从甲客户获得的数据就可能被用在对乙客户给出的交互回答中,造成数据泄露。

如果企业上传的大量隐私机密数据未能得到充分保护,恶意攻击者或者云厂商内部的恶意人士就可能利用软件漏洞或职权获取这些信息,攫取不当利益的同时,也对企业造成了无可估量的伤害。

考虑到大模型所需的训练和交互数据数量庞大,远远超过以往企业上传到云端的规模,这种风险相比过去也有数量级的增长。

目前,生成式AI已经展现前所未有的智能化水平,由此将占据企业的IT关键位置,而就此重要性带来的受攻击频度,也将使得生成式AI成为云计算、大数据、物联网、移动互联网之后的一个全新的安全战场。

与此同时,大模型技术也将会在多个方面帮助提升网络安全运维效率,在更深层次改变网络安全格局的基础。

有些人士还认为,生成式AI将进一步扩大贫困差距,加深数字鸿沟。生成式AI作为新兴的AI技术,需要基于大量的数据与巨大的计算能力,这就意味着生成式AI只能在技术先进的国家和地区普及开来,并被少数经济体所掌控。

数字贫困差距进一步扩大,科技弱势地区的话语权被忽视,其潜在的风险就是发达经济体的价值观广泛传播,数字鸿沟也会不可逆地加深。

用技术对抗技术用魔法打败魔法

随着大模型时代的到来,其强大能力也为安全防护技术的变革提供了新的思路。“用AI的力量来对抗AI”已经成为一个热点方向。

事实上,对抗攻防思路并不是模型安全的专属。早在上个十年,面对种种安全威胁,人工智能领域就逐步形成了“以攻测防——以攻促防——攻防一体化”的安全理念,通过模拟各类攻击场景,不断探索模型和系统的弱点,以此推动算法和工程端的防御能力加强。

只不过,以往安全防护主要依赖机器学习算法模型,这需要大量专业数据知识积累,且面临知识盲区和小样本冷启动不及时的问题。利用大模型技术,可以实现更智能化的安全防控。

当前,生成式AI面临的安全问题可以分为三级。初级问题是技术攻击问题,也就是网络攻击、漏洞攻击、数据攻击问题,特别是提供给大模型不好的数据或污染它的训练数据,可能会导致结果出错。这类问题相对比较好解决。

比较难解决的是中级问题,主要涉及内容安全。例如大模型可以成为人们很好的帮手,也能成为坏人的工具。它可以帮一个水平不怎么样的黑客写更好的攻击代码、诈骗邮件。

如何让它的内容更加可控?如何防止AI大模型不作恶?这已经超越了技术范畴。尽管现在有人为大模型做了内置的所谓“安全护栏”,但它很容易遭到注入攻击或算法攻击。

从高级问题来看,大模型可以把人类所有知识融会贯通,再来和人类做交流、做提示。但当AI的能力超越人类后,还能不能甘于做人类的工具,这些技术带来的挑战最终还要靠技术来解决,技术自身会不断进化,不能因为未来还没有发生的问题就不发展相关技术。

从产业界现状来看,AI安全与否如何评测,目前尚缺乏一套易用和标准化的评测工具和规则。

这也是大模型防御中能够补充的另一方面,通过大模型技术学习风险知识和标准规则来提升AI对于风险的认知理解能力,以实现用大模型对抗大模型来进行极速防御和快速冷启动的目的。

面对大模型下的网络安全挑战,需要企业、安全团队和监管机构等共同努力来应对。

首先,加强大模型的训练和管理。通过采用更加有效的数据增强和处理技术,减少大模型的过拟合和梯度爆炸等问题,提高模型的鲁棒性和可靠性。同时,对大模型的训练和管理也需要加强监管和审计,确保数据的隐私和安全。

其次,研发新型安全防御技术。针对大模型的攻击手段不断变化和更新,需要研发新型的安全防御技术来应对。例如,可以利用人工智能技术来检测和防御恶意代码和网络钓鱼攻击等。

以文本安全为例,大模型可以基于安全标准规则、风险领域知识和历史风险样本进行训练,提升模型对于风险标准和内容的理解力,从而实现对风险检测能力的提升。

也采用大模型生成能力结合安全知识图谱,来构造攻击样本持续迭代优化检测模型。

第三,强化数据安全保护。除了要关注大模型在互联网上的攻防对抗,大模型本身的安全和隐私问题同样引发了担忧。

针对大模型的训练和使用过程中可能存在的数据安全问题,需要采取一系列的隐私保护技术。例如,使用同态加密、差分隐私、安全多方计算、模型水印和指纹等多种技术来保护数据的隐私和安全。

第四,加强监管和法律保护。技术立法往往落后于技术发展的步伐,缺少法规和条例的引导和规制,越来越多使用生成式AI的公司发现其系统运行的安全性受到很大挑战。

面对大模型下的网络安全挑战,也需要监管机构和法律机构加强管理和监管。例如,政府监管机构要通过政策立法对生成式AI的设计、演进进行有效引导、统筹管理。

制定的政策框架需要与各国的立法和监管背景保持一致,并且要随AI技术更迭而更新,不断提高现有法规的适用度。在监管的同时给予AI创新的自由度,协同创造出更高质量的内容。

生成式AI是非常复杂的问题,伦理、数据、训练等领域的复杂度都是前所未有的,是一个新领域,也是摆在所有人面前的一个命题。

从科技企业的发展史看,在新技术发展的前期,不同路线、理念的参与者往往能够团结协作,共同为了科技普及而合作前进。

但当科技普及已经发生,关于商业化、实现路径的种种理念差异,却可能走上不同的道路。在AI普及和深度应用的前夜里,或许,关于未来技术应该如何普及、如何监管的理念与路径之争,才刚刚拉开帷幕。

面对未来的安全发展趋势和挑战,企业更应该携起手来,共同建立可度量的安全体系,为应对智能化时代的攻防新趋势,打造内在自适应的“安全免疫力”。

【关于科技云报道】

专注于原创的企业级内容行家——科技云报道。成立于2015年,是前沿企业级IT领域Top10媒体。获工信部权威认可,可信云、全球云计算大会官方指定传播媒体之一。深入原创报道云计算、大数据、人工智能、区块链等领域。

相关文章
|
8天前
|
人工智能 前端开发 小程序
2024年12月30日蜻蜓蜻蜓AI工具系统v1.0.0发布-优雅草科技本产品前端源代码已对外开源可免费商用-优雅草老八
2024年12月30日蜻蜓蜻蜓AI工具系统v1.0.0发布-优雅草科技本产品前端源代码已对外开源可免费商用-优雅草老八
2024年12月30日蜻蜓蜻蜓AI工具系统v1.0.0发布-优雅草科技本产品前端源代码已对外开源可免费商用-优雅草老八
|
12天前
|
人工智能 安全 DataX
【瓴羊数据荟】 Data x AI :大模型时代的数据治理创新实践 | 瓴羊数据Meet Up城市行第三期
第三期瓴羊数据Meetup 将于2025年1月3日在线上与大家见面,共同探讨AI时代的数据治理实践。
63 10
【瓴羊数据荟】 Data x  AI :大模型时代的数据治理创新实践 | 瓴羊数据Meet Up城市行第三期
|
12天前
|
存储 人工智能 人机交互
PC Agent:开源 AI 电脑智能体,自动收集人机交互数据,模拟认知过程实现办公自动化
PC Agent 是上海交通大学与 GAIR 实验室联合推出的智能 AI 系统,能够模拟人类认知过程,自动化执行复杂的数字任务,如组织研究材料、起草报告等,展现了卓越的数据效率和实际应用潜力。
93 1
PC Agent:开源 AI 电脑智能体,自动收集人机交互数据,模拟认知过程实现办公自动化
|
5天前
|
存储 数据采集 算法
构建AI数据管道:从数据到洞察的高效之旅最佳实践
本文探讨了大模型从数据处理、模型训练到推理的全流程解决方案,特别强调数据、算法和算力三大要素。在数据处理方面,介绍了多模态数据的高效清洗与存储优化;模型训练中,重点解决了大规模数据集和CheckPoint的高效管理;推理部分则通过P2P分布式加载等技术提升效率。案例展示了如何在云平台上实现高性能、低成本的数据处理与模型训练,确保业务场景下的最优表现。
|
28天前
|
人工智能 搜索推荐 安全
数百名研发人员用通义灵码,33%新增代码由AI生成,信也科技研发模式焕新升级
目前,信也科技数百名研发人员正在使用通义灵码,周活跃用户占比70%,新增代码中有33%由通义灵码编写,整体研发效率提升了11%,真正实现了数百研发人员开发效能的全面提升。
|
7天前
|
人工智能 Cloud Native 数据管理
数据+AI融合趋势洞察暨阿里云OpenLake解决方案发布
Forrester是全球领先的市场研究与咨询机构,专注于新兴技术在各领域的应用。本文探讨如何加速现代数据管理,推动人工智能与客户业务的融合创新。面对数据标准缺乏、多云环境复杂性、新兴业务场景及过多数据平台等挑战,Forrester提出构建AI就绪的数据管理基石,通过互联智能框架、全局数据管理和DataOps、端到端数据管理能力、AI赋能的数据管理以及用例驱动的策略,帮助企业实现数据和AI的深度融合,提升业务价值并降低管理成本。
|
12天前
|
存储 机器学习/深度学习 人工智能
科技云报到:人工智能时代“三大件”:生成式AI、数据、云服务
科技云报到:人工智能时代“三大件”:生成式AI、数据、云服务
|
10天前
|
机器学习/深度学习 人工智能 自动驾驶
企业内训|AI大模型在汽车行业的前沿应用研修-某汽车集团
本课程是TsingtaoAI为某汽车集团高级项目经理设计研发,课程全面系统地解析AI的发展历程、技术基础及其在汽车行业的深度应用。通过深入浅出的理论讲解、丰富的行业案例分析以及实战项目训练,学员将全面掌握机器学习、深度学习、NLP与CV等核心技术,了解自动驾驶、智能制造、车联网与智能营销等关键应用场景,洞悉AI技术对企业战略布局的深远影响。
144 97
|
15天前
|
机器学习/深度学习 人工智能 物联网
AI赋能大学计划·大模型技术与应用实战学生训练营——湖南大学站圆满结营
12月14日,由中国软件行业校园招聘与实习公共服务平台携手魔搭社区共同举办的AI赋能大学计划·大模型技术与产业趋势高校行AIGC项目实战营·湖南大学站圆满结营。
AI赋能大学计划·大模型技术与应用实战学生训练营——湖南大学站圆满结营
|
8天前
|
机器学习/深度学习 人工智能 自然语言处理
CogAgent-9B:智谱 AI 开源 GLM-PC 的基座模型,专注于预测和执行 GUI 操作,可应用于自动化交互任务
CogAgent-9B 是智谱AI基于 GLM-4V-9B 训练的专用Agent任务模型,支持高分辨率图像处理和双语交互,能够预测并执行GUI操作,广泛应用于自动化任务。
48 12
CogAgent-9B:智谱 AI 开源 GLM-PC 的基座模型,专注于预测和执行 GUI 操作,可应用于自动化交互任务