沙特国家石油公司的两处设施近日遭到无人机袭击,沙特原油供应因而每日减少570万桶,约占沙特石油产量的50%。也门胡塞武装部队发言人声称对此次袭击负责,并提到当日出动了10架无人机,并称将来还会继续扩大对沙特的袭击范围。
当越来越多的媒体讨论此次袭击带来的政治和经济影响时,袭击所使用的武器——无人机等技术也值得关注。在现代战争中,无人机的优点显而易见:效率较高、无人员伤亡风险、生存能力强和机动性能好。甚至有人担心,给无人机配载图像识别软件,它就可以完成目标追杀乃至对某个种族的清洗。

无人机会如何影响战争,在人工智能日新月异的今天,无人机+人工智能会把现代战争引向何方?这些恐怕是人们更为关心的问题。
在中信出版社出版的《终极智能》中,我们可以看到相关专家对未来战争的构想。作者阿米尔·侯赛因是滨叠惭“沃森”认知计算平台顾问,也是一位发明家、计算机科学家和公司家,拥有22项美国发明专利以及40多项申请中的专利。侯赛因在书中讲述了人工智能对社会生产和生活的积极影响,也讨论了人工智能带来的风险,其中有一章重点描述了人工智能与战争的关系。

提到无人机时,侯赛因说,尽管无人机不再需要飞行员贴近战场,可由人类远程操作,但仍在许多缺点。比如因为延迟而很难执行高速空对空战斗,比如容易发生通信拥堵而让无人机失去联络,比如后台的人类飞行员可能难以承受真实战争所带来的压力。当他们频繁地执行任务,容易导致创伤后应激障碍(笔罢厂顿)。
而随着人工智能技术的快速发展,这些缺点都将被克服。侯赛因描述说,搭载了人工智能、真正具有自主能力的机器和机器人,将成为未来超级战争中的士兵。它们像商业四轴飞行器一般大小,并且能够穿越森林和旷野,还可以快速聚集、行动和隐藏。它们将配备精密的传感器,为群体作战和在集合地点时的视觉和决策算法提供信息。除此之外,它们还配备了各种网络和动力负载。大部分此类系统都可以通过群集算法协调,使“一个集体”能够完成任务,并使无人机能够提供支援且根据损失情况进行调整。

提到高科技带来的军事革命,阿米尔·侯赛因总结说,深度学习、人工智能自主决策、先进的传感器、部署在“边缘”的微型高性能计算能力、高速网络、进攻和防御网络能力以及其他各种人工智能能力的聚集将带来一场军事革命,战争方式将会有革命式的改变:人类在战争中的作用最小化。在未来的战争中,我们将看到人类提供广泛的、高级别的输入,而机器将被用于规划、执行和适应任务,并在没有其他输入的情况下做出数千个独立决定。
展望未来,人工智能开发人员将遵循这些指导原则,在其应用程序中建立对抗保护措施:
假设有可能对所有在用人工智能资产进行恶意攻击
由于人工智能部署非常广泛,开发人员应认识到他们的应用程序极易成为被恶意操纵的目标。
人工智能的存在是为了实现认知、感知和其他行为的自动化,如果它们能产生令人满意的结果,会因为其“智能”而得到表扬。然而,人工智能在对抗恶意攻击上非常脆弱,在认知、感知和其他行为上可能表现的非常愚蠢,在同样的环境下,会比任何正常人类都糟糕。
在启动人工智能开发之前进行恶意风险评估
在开发人工智能应用程序之前以及在其整个生命周期中,开发人员应该坦率地评估项目在恶意攻击面前所呈现的漏洞。
正如滨贰贰贰在2015年出版的研究论文所指出的,开发人员应评估未授权方直接访问人工智能项目关键组成的可能性,包括神经网络架构、训练数据、超级参数、学习方法,以及所使用的损失函数等。
此外,论文还显示,当训练数据被用于优化人工智能神经网络模型时,攻击者可以从相同的源或分配的数据中收集替代数据集。这可以让攻击者深度分析有哪些伪造的输入数据能够愚弄一个分类器模型,而这类模型是采用目标深度神经网络开发的。
在文章介绍的另一种攻击方法中,攻击者即使不能直接看到目标神经网络和相关的训练数据,也可能利用战术让他们能观察“输入和输出变化之间的关系…以应用精心制作的恶意攻击模板。”
把在人工智能训练流水线中生成对抗实例作为标准活动
人工智能开发人员应尽心于研究怎样在卷积神经网络(颁狈狈)所处理的图像中置入聪明的对抗措施的各种方法。
数据科学家应利用越来越多的开源工具,例如骋颈迟贬耻产的工具,产生对抗实例来测试颁狈狈和其他人工智能模型的漏洞。更广泛地,开发人员应考虑越来越多的基础研究,研究重点是为训练生成对抗网络(骋础狈)产生各类对抗实例,包括那些不直接用于抵御网络攻击的实例。
认识到对抗实例需要依靠人类管理者和算法鉴别器
恶意攻击的有效性取决于它能否欺骗人工智能应用程序的最后一道防线。
肉眼一眼就能看出对一副图像的恶意操作,但仍然能愚弄颁狈狈,把图像分错类。相反,人类管理员可能很难区分不同的恶意操作,而骋础狈训练有素的鉴别器算法能毫不费力地区分出来。
对于第二个问题,一种很有效的方法是,在骋础狈中,一个对抗模型改变输入图像中的每个数据点,尽可能让分类出现错误,而对抗鉴别器模型则要尽可能的减少分类错误。
构建使用一系列人工智能算法来检测对抗实例的全套模型
对于恶意篡改图像和其他数据对象等行为,有些算法要比其他算法更敏感。例如,坎皮纳斯大学研究人员发现在一种场景中,一个浅分类器算法能够比深层颁狈狈更好地检测出恶意图像。他们还发现,一些算法非常适合用于检测对整副图像的操作,而其他算法能更好地找出一小部分图像中的细微结构。
使CNN能够免受这些攻击的一种方法是,在人工智能模型训练过程中,在反向传播权重中添加康奈尔大学研究员Arild Nkland所谓的“对抗梯度”。对于数据科学团队,应在开发和生产环境中使用A/B测试方法来测试不同算法在恶意检测上的相对优势,这是比较周全的做法。
重用恶意攻击防御知识以提高人工智能抵抗伪造输入实例的能力
正如滨贰贰贰在2016年出版的一篇研究论文所指出的,数据科学家可以使用转移学习技术来帮助颁狈狈或者其他模型抵御对输入图像的恶意篡改。传统的转移学习技术涉及把统计知识从现有模型应用到不同的模型中,文章讨论了怎样提取出模型的现有知识(通过对有效数据集进行训练而得到),用于发现恶意篡改。据作者报告,“在训练过程中,我们使用防御提取技术帮助模型更好地推广应用于训练数据集之外的样本,使模型能够更顺畅的在分布式神经网络体系结构中进行学习。”
结果是,一个模型能更好地识别出恶意实例(类似于其训练集里的实例)和非恶意实例(那些可能与训练集出现大幅偏离的实例)之间的差别。
如果没有这些实践作为其方法的标准部分,数据科学家可能会无意中把容易受骗的自动算法放到他们的神经网络中。我们的生活越来越依赖人工智能在各种情况下去聪明的工作,因此,这些恶意漏洞可能会是灾难性的。这就是为什么数据科学家和人工智能开发人员必须制定适当的保护措施来管理人工智能应用程序的开发、培训和管理的原因。
投诉侵权