网络犯罪分子开始利用AI绕过现代电子邮件安全措施

简介: 网络犯罪分子开始利用AI绕过现代电子邮件安全措施

本文来自 企业网D1net公众号

根据研究公司的说法,网络犯罪分子开始使用AI来创建复杂的电子邮件威胁,如网络钓鱼和商业电子邮件泄露攻击。

AI在电子邮件安全中的角色



新的研究揭示了人们对AI在电子邮件安全方面角色的看法发生了重大转变。网络犯罪分子正在迅速采用对他们有利的AI工具,91.1%的企业报告他们已经遇到了AI增强的电子邮件攻击,84.3%的AI预计AI将继续被用来绕过现有的安全系统。因此,来自AI支持的保护比以往任何时候都更加重要。


在过去的12个月里,受访者认为AI对他们的电子邮件防御“极其重要”的比例增加了4倍以上,几乎所有企业都希望AI对他们的电子邮件防御具有中等或极其重要的作用。


人们对AI威胁的日益增长的看法与过去一年登上头条的LLM和AIGC服务(如ChatGPT)的日益增长是一致的。


电子邮件安全仍是重中之重



相对于所有其他安全和风险计划,几乎80%的企业将解决电子邮件安全风险列为其企业的三大优先事项。


  • 随着时间的推移,传统的电子邮件安全方法已被证明不那么有效:96.9%的受访者实施了启用AI的电子邮件安全,因为他们的传统防御系统无法有效应对紧急威胁。


  • AI支持的安全不仅仅适用于电子邮件:支持AI的电子邮件安全的购买者希望能够通过AI更好地保护其他通信和协作应用程序,如Microsoft Teams、SharePoint、OneDrive、Zoom和Slack、Salesforce等。


  • 没有响应性缓解的AI检测是被误导的:加强通过AI检测电子邮件威胁的能力是必不可少的第一步,但它不能就此止步。企业必须培训网络安全专业人员和SOC团队,以快速有效地响应已确定的事件,充分利用AI带来的最佳成果。


  • 企业正在使用支持AI的新工具加强防御:随着电子邮件中威胁环境的变化,企业正在实施新的防御措施。90%的企业实施了支持AI的电子邮件安全解决方案,而不是他们的云电子邮件提供商提供的解决方案。


Percept Point的CEO约拉姆·塞林格表示:“随着网络攻击的持续激增,尤其是AIGC助长的网络钓鱼和电子邮件泄露攻击,创造性预防战略的必要性正在变得越来越迫切。”


随着网络犯罪分子利用AI使电子邮件攻击变得更加危险,所有企业都必须确保他们拥有正确的防御措施,以检测和阻止传统电子邮件安全方法遗漏的攻击。

相关文章
|
3月前
|
人工智能 安全 算法
利用AI技术提升网络安全防御能力
【10月更文挑战第42天】随着人工智能技术的不断发展,其在网络安全领域的应用也日益广泛。本文将探讨如何利用AI技术提升网络安全防御能力,包括异常行为检测、恶意软件识别以及网络攻击预测等方面。通过实际案例和代码示例,我们将展示AI技术在网络安全防御中的潜力和优势。
|
1月前
|
数据采集 人工智能 自然语言处理
FireCrawl:开源 AI 网络爬虫工具,自动爬取网站及子页面内容,预处理为结构化数据
FireCrawl 是一款开源的 AI 网络爬虫工具,专为处理动态网页内容、自动爬取网站及子页面而设计,支持多种数据提取和输出格式。
207 19
FireCrawl:开源 AI 网络爬虫工具,自动爬取网站及子页面内容,预处理为结构化数据
|
16天前
|
存储 人工智能 安全
AI时代的网络安全:传统技术的落寞与新机遇
在AI时代,网络安全正经历深刻变革。传统技术如多因素身份认证、防火墙和基于密码的系统逐渐失效,难以应对新型攻击。然而,AI带来了新机遇:智能化威胁检测、优化安全流程、生物特征加密及漏洞管理等。AI赋能的安全解决方案大幅提升防护能力,但也面临数据隐私和技能短缺等挑战。企业需制定清晰AI政策,强化人机协作,推动行业持续发展。
48 16
|
11天前
|
机器学习/深度学习 人工智能 安全
SentinelOne人工智能安全态势管理(AI-SPM)
随着人工智能(AI)的广泛应用,AI基础设施的安全性变得至关重要。SentinelOne的AI安全态势管理(AI-SPM)解决方案专注于保护AI工作负载,提供自动化盘点、错误配置检测及攻击路径分析,确保AI系统的安全性。咨询采购请联系:王涛📞13818802872 📨wangtao@mfreelink.com。更多信息,请访问上海甫连信息。
54 7
|
2月前
|
机器学习/深度学习 人工智能 安全
CCF-CV企业交流会:打造大模型时代的可信AI,探索AI安全治理新路径
近日,由中国计算机学会计算机视觉专委会主办的《打造大模型时代的可信AI》论坛顺利举行。论坛邀请了来自上海交通大学、中国科学技术大学等机构的专家,从立法、监管、前沿研究等多角度探讨AI安全治理。合合信息等企业展示了图像篡改检测等技术,助力AI向善发展。
70 11
CCF-CV企业交流会:打造大模型时代的可信AI,探索AI安全治理新路径
|
2月前
|
机器学习/深度学习 人工智能 安全
阿里云先知安全沙龙(武汉站) ——AI赋能软件漏洞检测,机遇, 挑战与展望
本文介绍了漏洞检测的发展历程、现状及未来展望。2023年全球披露的漏洞数量达26447个,同比增长5.2%,其中超过7000个具有利用代码,115个已被广泛利用,涉及多个知名软件和系统。文章探讨了从人工审计到AI技术的应用,强调了数据集质量对模型性能的重要性,并展示了不同检测模型的工作原理与实现方法。此外,还讨论了对抗攻击对模型的影响及提高模型可解释性的多种方法,展望了未来通过任务大模型实现自动化漏洞检测与修复的趋势。
|
2月前
|
运维 供应链 安全
阿里云先知安全沙龙(武汉站) - 网络空间安全中的红蓝对抗实践
网络空间安全中的红蓝对抗场景通过模拟真实的攻防演练,帮助国家关键基础设施单位提升安全水平。具体案例包括快递单位、航空公司、一线城市及智能汽车品牌等,在演练中发现潜在攻击路径,有效识别和防范风险,确保系统稳定运行。演练涵盖情报收集、无差别攻击、针对性打击、稳固据点、横向渗透和控制目标等关键步骤,全面提升防护能力。
|
2月前
|
人工智能 安全 算法
PAI负责任的AI解决方案: 安全、可信、隐私增强的企业级AI
在《PAI可信AI解决方案》会议中,分享了安全、可信、隐私增强的企业级AI。会议围绕三方面展开:首先通过三个案例介绍生活和技术层面的挑战;其次阐述构建AI的关键要素;最后介绍阿里云PAI的安全功能及未来展望,确保数据、算法和模型的安全与合规,提供全方位的可信AI解决方案。
|
2月前
|
人工智能 安全 机器人
OpenAI重拾规则系统,用AI版机器人定律守护大模型安全
在人工智能领域,大语言模型(LLM)展现出强大的语言理解和生成能力,但也带来了安全性和可靠性挑战。OpenAI研究人员提出“规则基于奖励(RBR)”方法,通过明确规则引导LLM行为,确保其符合人类价值观和道德准则。实验显示,RBR方法在安全性与有用性之间取得了良好平衡,F1分数达97.1。然而,规则制定和维护复杂,且难以完全捕捉语言的多样性。论文:https://arxiv.org/pdf/2411.01111。
99 13
|
2月前
|
数据采集 机器学习/深度学习 人工智能
基于AI的网络流量分析:构建智能化运维体系
基于AI的网络流量分析:构建智能化运维体系
160 13