人工智能将在12个月内武器化!超过6成的专家这么认为

人工智能将在12个月内武器化!超过6成的专家这么认为


【AI世代编者按】信息安全创业公司Cylance周二发布的调查结果显示,约62%的信息安全专家认为,人工智能将在未来12个月内武器化,被用于信息安全攻击。这意味着人工智能的发展将成为“双刃剑”。


调查报告称:“尽管人工智能或许是减少信息安全攻击和网络入侵的最大希望,但也将在短期内带来更复杂的攻击策略。”


尽管在调查中,大部分受访者表示,人工智能有很大的可能性被用于攻击,但仍有32%受访者认为,这种情况发生的可能性为零,6%的受访者对此不确定。不过,人工智能被用于攻击性武器的可能性不会削弱将人工智能用于防御的能力。

人工智能将在12个月内武器化!超过6成的专家这么认为

调查中的另一个话题是,近期两个暗网络市场Alphabay和Hansa被关闭。尽管这些暗网络市场常常被用于交易信息安全漏洞,但79%受访者并不认为,这两个平台被关闭将阻挡勒索软件攻击的步伐。


关于信息安全策略和流程,操作系统补丁和升级是最主要的关切,提到这点的受访者占39%。有24%的受访者提到了合规问题,18%的受访者提到了勒索软件,筛选报警占10%,拒绝服务攻击(DoS)占8%。

人工智能将在12个月内武器化!超过6成的专家这么认为

然而,这些结果不同于组织所面临的最主要信息安全问题。在调查中,受访者提到过去3个月他们面临的最严重问题分别是钓鱼攻击(36%)、对关键基础设施的攻击(33%),物联网攻击(15%)、勒索软件攻击(14%),以及僵尸网络攻击(1%)。

人工智能将在12个月内武器化!超过6成的专家这么认为

Cylance的调查还关注了美国人眼中最主要的信息安全威胁来源。俄罗斯被认为威胁最大,为34%,略微高于有组织的信息安全犯罪,后者为33%。


实际上,用人工智能去进行信息安全攻击已有案例出现。在近期的DEF CON大会上,来自信息安全公司Endgame的海鲁姆·安德森(Hyrum Anderson)展示了值得警惕的人工智能应用:修改恶意软件,从而击败有机器学习功能的反病毒软件。


Endgame试验的核心前提是,所有人工智能都有盲点,而这些盲点可以被其他人工智能利用。通过对恶意软件进行稍许修改,反病毒软件就可以被绕开。研究者可以在16%的情况下规避信息安全措施。


这一比例看起来不算太高,不过如果人工智能可以引起恶意软件的突变,让恶意软件仍具有破坏性功能,但却不可探测,那么只要一次入侵成功就已经足够。


让人工智能去识别对象或代码非常简单。通过在熊猫照片上引入“不可感知的小改变”,谷歌研究员已经成功欺骗了图像识别人工智能。这样的改变对人眼来说很难识别,但却导致人工智能系统对错误结果表现出更高的信心。


人工智能将在12个月内武器化!超过6成的专家这么认为


反病毒人工智能的目标与图像识别略有不同,但同样使用了机器学习技术。这样的人工智能利用数据去了解,恶意软件代码如何构成,从而判断应当关注什么样的模式,随后去识别从未见过的恶意软件。


Endgame的试验表明,如果某个人工智能可以学会识别潜在恶意软件,那么另一个人工智能就可以学会观察前者,了解其如何做出判断,并利用这些信息开发出更不容易被探测的恶意软件。


因此,Endgame研究员开发了基于OpenAI平台的恶意软件修改人工智能。利用来自反病毒人工智能的信息,这种恶意人工智能可以修改特定代码。恶意人工智能会观察反病毒人工智能做出判断时的确定性程度,随后修改代码,降低其确定性程度。


在几次修改之后,恶意人工智能开发的代码不仅能绕开反病毒人工智能的探测,还能继续保持病毒的功能。


关于用人工智能去欺骗人工智能,Endgame试验的成功令人担忧。科技行业正在向机器学习技术投入大量时间和资金。然而,如果对象被稍微调整,人工智能仍然无法做出非常肯定的识别。(编译/陈桦)

人工智能将在12个月内武器化!超过6成的专家这么认为人工智能将在12个月内武器化!超过6成的专家这么认为