国际安全秩序重构的多维进路(三)

三、技术新变量催生人工智能武器化与数字鸿沟扩大的综合安全新挑战

技术新变量正深刻重塑国际安全结构,引发多重风险与挑战。从核战争阴霾到远程操控爆炸的威胁,技术革新不仅加剧了传统安全领域的风险,还催生了新的非常规威胁。人工智能武器化的快速进展,成为新时代的重要课题,既带来军事技术的革命性变化,也引发了伦理、法律及国际安全秩序的深层冲击。同时,数字鸿沟的扩大进一步加剧了全球安全的不平等性,需要国际社会共同努力弥合。

500

一、核战争的危险已经攀升至60年来的最高水平。

近期,国际社会中出现了一股炒作“核战争”与“第三次世界大战”潜在风险的潮流,这种趋势不仅加剧了全球安全环境的紧张态势,而且部分言论甚至将矛头无端指向中国,试图将中国塑造为潜在的安全威胁。尤为值得关注的是,2024

年再次当选美国总统的特朗普在其竞选活动中曾发表了一系列极具煽动性的言论,声称如果选举失利,可能会采取极端行动,包括引发“第三次世界大战”的危险言论,这无疑进一步加剧了国际社会对战争风险的担忧。

在此背景下,一些国际政治学者与安全专家纷纷发出警示,强调不应低估第三次世界大战爆发的可能性,并指出当前国际政治格局中的诸多不稳定因素,如大国间的战略竞争、地缘政治冲突、恐怖主义威胁以及核武器的扩散等,都可能成为触发战争的潜在因素。这些学者指出,一旦核战争爆发,其后果将是灾难性的,不仅会导致大量的人员伤亡与财产损失,更可能引发全球性的核冬天,使得人类文明遭受前所未有的重创,甚至可能倒退至石器时代,这种毁灭性的后果是任何国家都无法承受的。

因此,在应对核威胁时,国际社会必须保持高度的理性与冷静,坚决反对任何鼓噪第三次世界大战的图谋与言论。各国应加强对话与合作,共同推动国际核裁军与核不扩散进程,降低核武器的风险与威胁。同时,国际社会还应加强危机管理与冲突预防机制的建设,提高应对突发事件的能力,以切实维护世界的和平、稳定与繁荣。此外,学术界与政策制定者也应加强对核战争风险的研究与评估,为国际社会提供更加科学、全面的决策依据,共同推动构建更加公正、合理与有效的国际安全体系。

2、通信设备系列爆炸事件也对国际安全治理构成了新的挑战。

在2024年9月的全球地缘政治现实中,黎巴嫩遭遇的远程操控引爆通信设备集体爆炸事件,如同一枚震撼弹,不仅瞬间撕裂了黎巴嫩国内的社会稳定与安全防线,更在国际舞台上激起了层层波澜,对国际秩序、国家主权、以及全球安全治理体系构成了前所未有的挑战。这一事件不仅深刻交织了传统安全威胁(如国家间的军事对抗、领土争端)与非传统安全威胁(如网络攻击、信息战)的复杂经纬,而且以一种极端而直接的方式,揭示了全球化时代国家安全的脆弱性与相互依赖的深度,迫使国际社会重新审视并应对一个日益模糊且多变的安全环境。

从国际政治的角度来看,黎巴嫩爆炸事件不仅是对国际法的公然践踏,更是对现有国际秩序的一次严峻考验。它暴露了国际社会在应对跨国网络犯罪、防止大规模杀伤性武器扩散、以及维护国家主权与领土完整等方面的制度性不足与执行力短板。事件的连锁反应可能包括但不限于:地区紧张局势的升级、国际反恐与防扩散努力的受挫、以及全球安全治理共识的进一步分化。尤为重要的是,此类事件可能促使一些国家采取更为激进的安全策略,如加强网络监控、扩大军事干预范围、或是加速推进网络防御与反击能力的建设,从而在全球范围内引发一场关于安全观念、治理模式与国际合作的新一轮辩论与竞争。

在国际关系理论中,黎巴嫩爆炸事件可被视作一个典型的“安全困境”案例,即一国为保障自身安全而采取的行动,可能被视为对另一国的威胁,从而引发对方的反制措施,最终导致双方安全感的普遍下降与安全环境的进一步恶化。此事件还触及了“复合相互依赖”理论的核心议题,即在全球化与信息化高度发展的今天,国家间的安全与繁荣已紧密相连,任何一国的安全问题都可能迅速转化为区域乃至全球性的挑战,要求国际社会以更加开放、包容与协作的态度,共同应对复杂多变的安全威胁。

3、人工智能的安全治理也事关人类的前途命运。

基辛格博士生前曾与人合著过《人工智能时代与人类未来》(The
Age of AI And Our Human
Future)一书,非常关注人工智能对人类命运的影响,在他看来,人工智能的武器化将是国际关系的新变量。在很大程度上可以说,今天数字技术的推广应用正日益构建出一个数字化的社会,人类确实正在进入一个“数字社会”。但是“数字社会”是否就完全等同于“更好的社会”?这还真的需要斟酌。在当代国际政治与国际关系理论视野下,人工智能技术的崛起不仅关涉单纯的科技进步,更对国际体系的结构性维度和规范性基石提出了新的战略命题。传统的均势、威慑和联盟网络在面对高速迭代、难以监管的人工智能军事化应用时,可能出现策略预期偏差和安全困境加剧的现象。这意味着依托既有国际关系理论框架(如现实主义、自由制度主义、建构主义)进行分析时,需更加重视国际行为体在技术领域的认知塑造与规范生成过程。人工智能的扩散与武器化为大国竞争赋予了新的维度:不仅是物质能力与经济权势的博弈,更是对数字能力、数据资源与算法优势的争夺。这些新型要素的介入,使得国际关系中资源配置与权力转移的逻辑变得更为隐性和复杂。

在国际制度和全球治理层面,原有的军控条约和安全机制主要针对核武器、生化武器等传统大规模杀伤性武器,而对于人工智能武器化、算法武器、自动化决策系统等新型安全要素尚缺乏有力的制度回应。国际社会需要在国际法、国际规范与多边谈判机制的基础上,建立针对人工智能技术的前瞻性规则体系和行为准则。一方面,应在联合国框架内充分发挥安理会及相关专门委员会的协调与引导功能,通过制定议程、发布报告、组织专家组会晤与谈判来填补现有规则空白。另一方面,二十国集团(G20)、金砖国家合作机制(BRICS)以及区域性组织(如东盟、欧盟、非盟)等多元行为体也可成为构建人工智能安全治理共识的多层次平台。此类平台不仅能促进政策沟通与相互监督,还能推动区域层面的先行先试,为全球层面的制度铺路。

就行为体类型而言,国际安全治理不应仅依赖主权国家和传统国际组织的单线推进,而应考虑非国家行为体在技术扩散与治理创新中的关键地位。科技公司、智库、大学研究机构、国际非政府组织(NGO)和标准制定组织等新型主体,正在通过专利申请、技术标准设定、行业自律、跨国学术网络等渠道,非正式且持续地塑造国际技术治理的轨迹。这种多元主体的广泛参与有助于降低大国间在正式外交场合的政治对立与话语僵局,使国际社会在复杂技术情境中找到更灵活、更务实的合作路径。另外,在国际政治文化与身份认知层面,人工智能的应用及其带来的不确定性,也为国际关系中的价值观冲突和意识形态竞争注入新的变量。

围绕数据治理、隐私保护、信息自由与技术垄断的规范讨论,逐渐成为国际公共领域的热点议题,这些议题不仅关乎技术管控,更涉及国际社会对人类共同价值与公义秩序的再思考。国际政治中的“合法性”与“认同”维度在人工智能时代将获得新的诠释:具有数字治理话语权的国家或集团可能通过算法标准、数据规则和伦理框架的输出,实现对国际安全议程的深层塑造,并由此重塑国际体系的分配正义与道德权威。

最后,对于国际关系学界与政策制定者而言,人工智能时代的来临要求将技术问题有机纳入国际政治分析的核心视域,以确保在理论与实践层面为复杂多变的安全环境提供更具前瞻性与包容性的解决方案。通过统合国际法、全球治理机制、跨学科知识、区域合作实践以及大国间有限共识的积累,国际社会方能逐步构建起应对人工智能安全挑战的稳健结构性框架,以期在权力转移与技术跃迁的历史关口避免冲突升级,为国际秩序的和平演化和人类文明的延续创造更加有利的条件。

(说明:本文选自笔者新著《新棋局:变局•定位》第一章第三节,该文由作者与博士生张硕共同撰写,此处注释略)

站务

全部专栏