78%的首席信息安全官担心:人工智能的攻击“狂飙”
在当今科技飞速发展的时代,人工智能(AI)这把双刃剑,正从炒作走向现实伤害,78%的首席信息安全官(CISO)已察觉到人工智能攻击的威胁,一场没有硝烟的网络安全战争已悄然打响。
从文字的诞生到火药的发明,再到电子邮件的普及,每一次使能技术的出现,都如同打开了潘多拉的魔盒,总有人会将其用于邪恶的目的。人工智能也不例外,它具有双用途性。一方面,它为人类带来了巨大的福祉,比如助力寻找强大的新药,为医疗领域带来新的突破;另一方面,它却成了网络犯罪分子的得力工具,被用于制造自动生成的钓鱼邮件,让企业安全岌岌可危。在企业安全这片战场上,网络犯罪分子正利用人工智能发动更快、更复杂的攻击,而网络安全则是一场零和游戏,只有一方能够获胜。安全领导者必须以同样适应性强的AI增强防御措施,才能在这场较量中保持领先。
人工智能网络安全供应商Darktrace在其《2025年人工智能网络安全状态》报告中,对全球1500名网络安全IT专业人士进行了深入调查。结果显示,整整74%的人认为人工智能风险对他们的组织来说已经是一个严峻的挑战。大约十分之九的从业者预计,这种影响将在中短期内持续存在,犹如一颗定时炸弹,随时可能引爆。
生成式人工智能更是火上浇油,在社会工程攻击中扮演着推波助澜的角色。2023年,随着ChatGPT的广泛流行,针对Darktrace基于AI的电子邮件保护系统用户的新颖社会工程攻击增长了135%。这一数据令人触目惊心,也让我们深刻认识到人工智能攻击的危害正在不断加剧。
那么,如何发现人工智能攻击呢?这就像搜寻黑洞一样困难。我们无法直接看到它们,但可以从它们对周围环境的影响中推断出它们的存在。Darktrace安全及人工智能战略总监Hannah - Marie Darley表示:“你可能会面临越来越复杂的钓鱼攻击、针对性的攻击,或者你所阅读或看到的恶意软件类型。通常情况下,除了这种复杂性的增加之外,很难确定是否涉及了人工智能。”
事实上,情报机构对AI驱动的攻击也深感担忧。在今年的RSA会议上,联邦调查局透露中国正在利用AI来磨练其攻击链条,这无疑给全球网络安全敲响了警钟。
然而,在这场人工智能攻击的浪潮中,安全专业人士的准备情况却不容乐观。今年,有45%的受访者表示他们不觉得自己对即将到来的事情做好了准备。尽管这一比例比去年下降了60%,但仍然处于较高水平,只有17%的人感到非常准备就绪。
网络安全技能短缺成为了应对人工智能攻击的最大障碍。平均组织的网络安全工具产生的警报洪流,根本不足以由足够多的人来管理。超过十分之七的被调查组织报告称,他们至少有一个未填补的网络安全职位。而且,公司似乎并没有积极尝试解决这个问题。在未来12个月里,招聘更多员工是调查基础中的最低优先事项,只有11%。达利认为,网络安全工作往往需要大量人手,因为这份工作需要投入极大的精力。“如果你不是在经历事故,那你就是在寻找一个,”她说。“用心理学的术语来说,我们称之为多重危机状态。所以你在连续不断的危机中挣扎,这意味着你几乎总是在压力状态下。”公司可能发现招聘和留住合适的人如此困难,以至于他们选择了放弃。
不过,面对技能鸿沟的缺失,企业并没有坐以待毙。他们将希望寄托在了人工智能驱动的网络安全解决方案上。有高达95%的受访者认为AI可以提高他们网络防御的速度和效率,而88%的人已经通过某种类型的人工智能解决方案节省了大量时间。这表明人工智能在网络安全领域具有一定的潜力和价值。
但这并不意味着公司对人工智能毫无担忧。人工智能解决方案分析的数据是敏感的,这就是为什么有82%的受访者倾向于不需要外部数据共享的人工智能解决方案。这反映了人们对模型训练泄露、人工智能治理以及遵守GDPR和欧盟人工智能法案等法规的日益关注。
然而,组织对人工智能的了解还存在诸多不足。Darktrace的研究发现,只有42%的受访者确切地知道他们的网络安全堆栈中使用了哪些类型的AI。许多受访者对生成式人工智能在网络安全中的作用估计过高,几乎有三分之二的人认为他们的网络安全工具只使用或主要使用生成式人工智能,尽管这可能并不真实。这是因为两者都使用了神经网络,但背后的机制和能力是不同的。
尽管如此,组织对人工智能的期望还是很明确的。他们对那些只在事后对网络安全威胁做出反应的工具感到厌倦,有88%的人表示人工智能帮助他们采取了更预防性的防御立场。另一个常见的要求是用集成的网络安全平台替换点解决方案,89%的人更倾向于后者。缺乏互操作性常常导致点解决方案像用口香糖和胶带拼凑在一起,SoC员工可能手动交换数据,或者疯狂地编写脚本试图自动化某些事情,这显然不是应对快速移动攻击的有效方式。
企业真正需要的是简单而有效的保护。他们不需要知道某物是如何工作的,也不需要看到各个独立产品如何拼接在一起。“最好的AI解决方案确实是理解你试图解决的问题,然后选择正确的技术,”Darley说。“这并不总是意味着增加更多的复杂性。”
Darktrace ActiveAI安全平台就是一个典型的例子。它结合了监督学习、无监督学习和统计机器学习模型,集成到其自学习AI引擎中。该引擎在检测潜在威胁的同时,还寻找网络安全控制中的弱点,以便攻击者在利用它们之前被阻止。例如,最近推出的防火墙规则分析功能有助于封堵任何漏洞,以防止入侵者进入。Darktrace平台关联并调查跨多个环境和应用程序的安全事件,范围从云计算实例到电子邮件系统、网络、端点和操作系统。各种人工智能模型使其能够以传统解决方案无法比拟的方式在新型威胁检测方面表现出色,不仅能发现明显的签名或已知的可疑行为,还能识别出与基线规范偏离的情况,后者可能表明尚未在野外出现的合法威胁。
多层AI系统还使Darktrace能够根据用户设定的自动化水平对这些威胁做出反应。那些想要完全控制的人可以依赖Darktrace的网络AI分析师能力来处理警报,并只关注有意义的警报,同时为人分析员提供有价值的上下文。那些想要更放手的方法的人可以启用自主安全功能,例如自动隔离。
Darktrace报告描绘了一幅安全专业人士在“蒙眼游戏”中的画面:他们被蒙上眼睛,无法确切地看到哪些攻击是由人工智能驱动的,或者它们来自哪里,但他们痛苦地意识到这些威胁就在视线之外潜伏着,等待时机发动攻击。随着威胁行为者越来越擅长使用这项技术,防御者必须迅速行动以跟上他们的步伐并加强防御,否则将在这场网络安全战争中遭受惨重的损失。