人工智能即将打破核均衡
本文首发于微信公众号“海国图智研究院”
01
导读
“学界动态·专题解读”栏目将持续为读者提供有关于人工智能的问题专题学界相关研究的解读。本期将为读者介绍各方对人工智能发展对核战争发生的风险造成的影响的研究结果进行解读。
02
人工智能与核战争风险
人工智能的发展是革命性的,其发展成果的基础性决定了其应用的广泛性,其在军事领域的应用也不例外。近年来人工智能的飞速发展已经开始触动原本依赖于“确保相互摧毁”(Mutual Assured Destruction, MAD)不稳定的核均衡,其机理是多途径的,而且也远远不是单向的。不同的机构对这个问题都提出了自己的研究思路,并给出了相应的研究结果,这些结果对于我们理解人工智能对核战争风险的影响有很大的帮助。
大多数机构特别是军事领域背景的机构均强调人工智能对核武领域的负面作用。防务新闻(Defense
News)一篇《将AI与核武器配对将会将我们引向末日》举例上世纪80年代苏联考虑部署一款在苏联遭受核打击后自动对美国进行报复的机器,但其最终还是部署了一个经修改的近乎自动化的系统,并就此提出完全依靠人工智能系统事实上是极其危险的。正如RAND在其《人工智能如何增加核战争风险》一文中指出,在1983年中,苏联警报系统误报遭受核打击,正是一名军官佩特罗(StanlslawPetrow)果断的大胆判断才避免了美苏全面的核战争,这足以说明人类对于人工智能或机器的完全依赖并不现实,且将大大增加核武领域的风险。在其他方面,人工智能除了可以影响本国的核武部署和状况,同样还能被用作新型攻击武器,沙利科夫(Pavel
Sharikov)特别强调了人工智能在攻击别国核武控制系统的潜力,其认为人工智能-网络攻击-核武器这个组合将是一个极其危险的组合,其开辟了新的为受监管的领域。上述这些研究都在说明人工智能对一国对内对外的核武政策和状况的影响能力,而以上所提到的大多数都是负面的影响。
在这个问题上,RAND智库的Edward
Geist和Andrew J.
Lohn在这方面进行了较详细的研究,在其于2018年发布的报告《人工智能对于和战争风险意味几何》中通过召开研讨会收集了人工智能对核安全的影响的各派观点。其中乐观派更可能认为核战争太过复杂,导致人工智能难有大作为,因此人工智能对现有平衡的影响是可以忽略的;而谨慎派则倾向于认为人工智能将导致现有系统变得脆弱,或将扰乱现有的重要战略平衡;第三种立场则是立足于人工智能易受对抗行动影响,既有可能重建战略稳定性也有可能破坏稳定。RAND同时认为,一方面国家对人工智能的依赖或使用有可能使得其战略对手做出误判而造成灾害性后果;另一方面,如果核大国成功建立基于人工智能的新的战略稳定性,也有可能降低核战争的风险。
OurWorld的VincentBoulanin在其文《人工智能对核稳定的前途与危途》中采用不同的解释逻辑,其虽然同样指出人工智能对核战争危险的两面作用,从其破坏稳定的方面来说,人工智能的发展而导致的技术进步将为国家间的核威慑带来变化,从而在一段时间内一个国家会取得一定程度的核优势,这对核稳定而言是非常不利的,因为他可能会造成核武竞赛。这一点其实比较好理解,比如俄罗斯开发的状况-6(Status-6)核无人驾驶潜艇,其无人驾驶的特性拓宽了核武器的拓宽渠道,成为着实的噩梦,这在一定程度上引起了美国的警觉,并有引起核军备竞赛的潜力。事实上,各国都在积极利用人工智能的技术来增强其核武库的质量,具体的思路包括自动化的导弹以躲避反导系统的侦测和攻击。从其维持稳定的方面来说就是人工智能的发展可以减少信息不对称并优化决策质量,在一定程度上减少错误的计算与事件升级,人工智能可以提供“与核武相关的发展的监督与其相关行为认证”,从而更好地规范各国的行为。比如美国在通过秘密的AI项目来检测其他国家隐藏的核武器地点,或许美国总统特朗普在河内要求朝鲜另外拆除的隐秘核设施就是通过新的AI技术得以实现的。
从总体来说,人工智能在核武器领域的应用大多被贴上负面的标签,而较全面的分析中普遍同意人工智能在核武器领域具有双面的作用,但要对这些反向的作用进行量化从而进行对比则较为困难。对人工智能在核武领域的负面影响主要从人工智能对核武的各项能力的提升以及对别国核武能力的削弱这两个内外角度开展的,其试图说明人工智能的发展将使得核武更强大,而核武性能的提升将导致旧核武体系军备控制体系被绕开,而直到新平衡的建立之前,都将处于一个相对危险期;对人工智能在核武领域的正面影响的评估则显得更为乐观,其认为随着人工智能的发展,国家间有关核武的信息不对称将下降,而且有关核武的监督也将更加科学完善,因此其也有降低和限制核战争风险的作用。虽然人工智能在核武领域的应用的正反两面都有详细的论证与分析,但是专家们普遍都难以确认未来的发展中哪种因素会占上风。
作者:谭松峰