词元大时代:Token霸权取代石油美元霸权6.2
6.2 一个跨数字文明的安全体系
布热津斯基提出了一个宏大的构想:“一个跨欧亚的安全体系”——一个由美国主导、覆盖从里斯本到符拉迪沃斯托克的安全合作框架,旨在防止欧亚大陆出现任何可能挑战美国霸权的敌对力量。这一构想虽然从未完全实现,但它反映了布热津斯基的核心信念:在核时代,超级大国之间的合作(即使是有限的、竞争性的合作)是避免灾难的必要条件。
在token霸权时代,类似的逻辑以更加紧迫的形式呈现。AI技术——尤其是通用人工智能(AGI)和自主武器系统的潜在发展——带来了核武器从未有过的风险:不可控的智能、无法预测的行为、以及可能永远无法关闭的系统。同时,AI技术的全球扩散(通过开源模型、廉价算力、以及在线教程)使得非国家行为体也能获得曾经只有超级大国才拥有的能力。
在这样的背景下,构建一个“跨数字文明的安全体系”——一个覆盖全球、涵盖政府、企业、学术界和公民社会的合作框架——不仅是战略选择,更是生存必需。这个体系的目标不是消除竞争(那是不可能的),而是设置护栏、建立信任、以及管理风险。
本节将阐述这一安全体系的必要性、核心要素、以及实现路径。这是一个理想主义的构想,但它的每一个组成部分都基于现实的、紧迫的、不容忽视的风险。
一、为什么需要“跨数字文明的安全体系”?
AI技术的特殊性,使得传统的国际安全机制(如军备控制条约、危机沟通热线、以及多边外交框架)难以适用。原因有四:
第一,AI技术具有“双重用途”和“快速迭代”的特性。 用于训练ChatGPT的算法,稍加修改就可以用于生成深度伪造、策划网络攻击、或设计生物武器。用于优化物流的AI,也可以用于优化导弹轨迹。这种“双重用途”使得区分“民用”和“军用”变得极其困难。同时,AI技术的迭代速度远快于国际谈判的速度——一项技术可能在条约谈判期间就已经过时,或者被新的技术突破所超越。
第二,AI开发具有“分散化”和“民主化”的趋势。 冷战时期的核技术,只有少数几个国家有能力开发。而今天的AI技术,开源模型可以在个人电脑上运行,大模型可以在云端租用,训练数据可以从互联网上抓取。这意味着,非国家行为体——恐怖组织、犯罪集团、甚至个人——也有可能获得破坏性的AI能力。传统的“国家间”军备控制框架,无法应对这种“去中心化”的威胁。
第三,AI风险具有“全球性”和“不可逆性”。 一个失控的AI系统——无论是国家开发的军事AI,还是个人开发的恶意AI——都可能对全球造成灾难性影响。与核武器不同,AI不会因为“使用”而消耗;它可以持续运行、持续学习、持续进化。一旦释放,可能无法关闭。这种“不可逆性”意味着,预防性合作比事后补救更加重要——但预防性合作需要高度的战略互信,而这在当前的国际环境中恰恰是最稀缺的资源。
第四,AI治理具有“价值观冲突”的特性。 美国强调“民主AI”——透明、可解释、尊重人权;中国强调“安全AI”——可控、稳定、服务于国家利益;欧洲强调“伦理AI”——公平、隐私保护、人类监督。这些价值观差异不仅仅是修辞上的,它们体现在技术标准、数据政策、以及监管框架中。构建全球AI安全体系,必须找到一种方式,在尊重这些价值观差异的同时,建立最低限度的共同规则。
基于以上四个特性,传统的“零和博弈”思维在AI领域是危险的。中美两国可以竞争谁先实现AGI,但必须合作确保AGI是安全的、可控的、以及不会毁灭人类的。这种“竞争性合作”——在竞争中合作,在合作中竞争——是token霸权时代最复杂、也最必要的战略艺术。
二、安全体系的四大支柱
一个“跨数字文明的安全体系”需要建立在四大支柱之上:军备控制(防止AI武器化失控)、技术治理(确保AI开发的安全和透明)、危机管理(防止误判和升级)、以及能力建设(帮助发展中国家应对AI风险)。每一支柱都包含具体的机制和措施。
支柱一:AI军备控制——防止“算法战争”
AI军备控制的核心目标是:防止AI技术被用于引发或升级武装冲突,尤其是防止“致命性自主武器系统”(LAWS)的失控扩散。
具体措施包括:
1. 禁止完全自主的致命武器:各国应承诺,在“有意义的人类控制”之外,不开发、部署或使用致命性自主武器系统。这并非要求所有武器都有人类“扣扳机”,而是要求:AI系统不能在没有人类监督和干预的情况下,自主决定攻击目标。这一禁令应具有法律约束力,并建立核查机制(如对AI武器系统的源代码进行审查)。
2. 建立AI武器“注册制”:各国应将其开发的军事AI系统(尤其是具有潜在致命能力的系统)向国际登记处注册,包括系统的基本功能、技术参数、以及部署状态。这类似于《联合国常规武器登记册》,目的是增加透明度、建立信任、以及防止秘密军备竞赛。
3. 限制AI在核指挥控制系统中的应用:核武器是最高级别的风险。任何将AI集成到核指挥控制系统中的行为,都可能增加误判和意外升级的风险。各国应承诺:AI系统不得拥有发射核武器的自主权;AI只能用于情报分析和决策支持,最终发射决定必须由人类做出。
4. 禁止AI辅助的生物武器设计:大语言模型和生成式AI可以用于设计新型生物武器(如更致命的病原体)。各国应建立审查机制,防止AI模型被用于这类恶意目的——例如,在训练数据中过滤敏感的生物序列信息,或在API层面设置使用限制。
这些措施面临的挑战是:核查极其困难。如何验证一个国家的AI系统是否“完全自主”?如何检测AI模型是否被用于设计生物武器?在缺乏有效的技术验证手段的情况下,军备控制只能依赖于“自愿遵守”和“互信”——而这两者在当前的中美关系中都不牢固。因此,AI军备控制需要与信任建立措施(如数据共享、联合演练、以及开放源代码审查)同步推进。
支柱二:技术治理——确保“安全、透明、可控”
技术治理的核心目标是:为AI开发设定最低安全标准,防止“不安全”的AI系统被部署到关键领域(如医疗、交通、金融、以及军事)。
具体措施包括:
1. 建立国际AI安全标准:参照核能领域的国际原子能机构(IAEA)模式,建立一个“国际AI安全机构”(IAISA),负责制定AI系统的安全标准、进行技术审查、以及协助各国建立监管能力。标准应涵盖:鲁棒性(AI系统在对抗性攻击下的表现)、可解释性(AI决策能否被人类理解)、以及可控性(AI系统能否被安全关闭)。
2. 强制“红队测试”和“影响评估”:对于部署在关键领域的AI系统(如自动驾驶、医疗诊断、金融风控),应强制进行独立的“红队测试”——由第三方专家模拟攻击者,测试系统的漏洞和弱点。同时,应进行“算法影响评估”,分析系统可能带来的社会、经济和安全风险。
3. 建立“AI事故”报告和响应机制:当AI系统发生重大故障、被恶意利用、或造成意外伤害时,相关方应向国际数据库报告事故细节。这类似于航空领域的“事故报告”机制,目的是从错误中学习,防止类似事故再次发生。同时,应建立快速响应机制,在发生跨国的AI事故(如深度伪造引发的金融恐慌、自主武器误判导致的冲突)时,协调各国的应对行动。
4. 推动“可验证的AI”技术:鼓励开发“可验证的AI”技术——即能够通过数学证明其行为符合某些安全属性的AI系统。虽然这一领域目前仍处于研究阶段,但它是长期解决AI安全问题的根本路径。国际社会应支持这一方向的研究,并建立开源代码库和测试平台。
技术治理面临的挑战是:各国对“安全标准”的定义存在分歧。美国更关注“对抗性攻击”和“数据隐私”,中国更关注“内容安全”和“社会稳定”,欧洲更关注“算法偏见”和“人权保护”。如何在这些分歧中找到共同点,是IAISA能否成立的关键。
支柱三:危机管理——防止“误判”和“升级”
危机管理的核心目标是:在发生涉及AI的意外事件(如算法误判、网络攻击、自主武器误启动)时,防止局势升级为军事冲突。
具体措施包括:
1. 建立AI“危机沟通热线”:参照冷战时期美苏之间的“华盛顿-莫斯科热线”(即“红色电话”),建立中美之间、以及联合国安理会常任理事国之间的AI危机沟通热线。当一方检测到可疑的AI活动(如疑似对方发起的AI网络攻击、或自主武器的异常行为)时,可以通过热线立即沟通,避免因误判而升级。
2. 制定“AI冲突降级协议”:各国应预先商定,在发生涉及AI的意外事件时,采取哪些步骤来降级局势。例如:暂停相关AI系统的运行、交换事件数据、以及启动联合调查。协议应明确“升级门槛”——什么情况下可以认为对方的AI行为具有“敌对意图”,什么情况下应视为“技术故障”。
3. 开展联合AI“兵棋推演”:中美两国(以及其他AI大国)应定期开展联合兵棋推演,模拟在危机情况下AI系统可能出现的故障、误判和升级路径。通过推演,双方可以识别风险点、测试沟通机制、以及建立互信。这类推演不应被视为“合作”的象征,而应被视为“风险管理”的必要工具——就像消防演习一样,即使双方是竞争对手,也需要定期演练如何应对共同的火灾风险。
4. 禁止AI“欺骗”和“伪装”:各国应承诺,不开发用于军事欺骗的AI系统——例如,模拟对方指挥官的声音发布虚假命令,或伪造卫星图像掩盖军事部署。这种“AI欺骗”行为极有可能导致误判和意外升级,应被视为“国际禁止行为”。
危机管理面临的挑战是:在高度对抗的政治氛围中,建立信任机制极其困难。如果一方认为另一方可能在利用危机沟通热线进行“信息战”或“心理战”,热线就可能失去作用。因此,危机管理需要与更广泛的信任建立措施(如数据共享、人员交流、以及联合研究)同步推进。
支柱四:能力建设——防止“智能鸿沟”成为安全威胁
能力建设的核心目标是:帮助发展中国家建立基本的AI治理能力,防止“智能鸿沟”导致全球安全风险的扩散。
具体措施包括:
1. 技术援助与培训:发达国家应向发展中国家提供AI安全方面的技术援助和人员培训,帮助它们建立监管框架、技术审查能力、以及应急响应机制。这不仅是“道德义务”,也是“安全必需”——因为一个没有AI治理能力的国家,可能成为恶意行为者利用AI发动攻击的“跳板”。
2. 共享威胁情报:各国应共享关于AI威胁的情报——例如,新型的AI网络攻击手段、深度伪造的检测方法、以及恶意使用开源模型的案例。这种情报共享可以在“五眼联盟”等传统情报框架之外,建立更加包容的、面向全球的机制。
3. 支持开源安全工具:鼓励开发和维护开源的AI安全工具——例如,深度伪造检测器、模型漏洞扫描器、以及算法偏见测试平台。这些工具可以帮助资源有限的发展中国家,以低成本建立基础的AI防御能力。
4. 建立“AI安全基金”:参照全球抗击艾滋病、结核病和疟疾基金的模式,建立“AI安全基金”,用于支持发展中国家的AI安全项目。资金来源可以包括政府捐款、科技公司捐赠、以及国际金融机构的贷款。
能力建设面临的挑战是:发达国家可能担心,技术援助会加速发展中国家的AI能力,反而创造新的竞争对手。这种“零和思维”需要被“共同安全”的理念所取代——在一个全球化的AI生态中,任何国家的AI治理短板都可能成为所有人的安全漏洞。
三、实现路径:从“最小共识”到“制度建构”
构建一个“跨数字文明的安全体系”不是一蹴而就的。它需要从“最小共识”开始,逐步扩大合作范围,最终形成制度化的框架。
第一阶段:双边信任建立(2026-2028)
中美两国应率先在AI安全领域建立双边合作机制。可以从中美战略与经济对话框架下的“AI安全工作组”开始,讨论以下议题:AI军事应用的风险、危机沟通机制、以及技术标准协调。这一阶段的重点是“建立对话”,而不是“达成协议”。
同时,两国可以在具体项目上开展合作——例如,联合研究深度伪造检测技术,或联合举办AI安全黑客马拉松。这些“低政治”的合作项目可以积累互信,为后续的“高政治”谈判创造条件。
第二阶段:多边框架探索(2028-2030)
在双边信任建立的基础上,可以将合作范围扩大到其他AI大国——英国、法国、德国、日本、韩国、印度、以及阿联酋等。可以在G7、G20、或金砖国家等现有多边框架下,设立AI安全议题的常设工作组。
同时,可以启动“国际AI安全机构”(IAISA)的可行性研究,探讨其组织形式、资金来源、以及职权范围。这一阶段的目标是“凝聚共识”,而不是“建立机构”。
第三阶段:制度化建设(2030-2035)
如果前两个阶段进展顺利,可以正式成立IAISA,并开始制定具有法律约束力的AI军备控制条约。条约应涵盖:禁止完全自主的致命武器、限制AI在核指挥控制中的应用、以及建立AI武器注册制度。
同时,可以建立全球AI事故报告和响应机制,以及AI危机沟通热线的多边版本(覆盖所有拥核国家和主要AI大国)。这一阶段的目标是“建立制度”,实现从“自愿合作”到“有约束力的承诺”的转变。
这一实现路径面临的最大障碍是:时间不等人。AI技术的发展速度远快于国际合作的谈判速度。在IAISA成立之前,可能就已经发生了灾难性的AI事故——一个失控的自主武器、一个引发金融恐慌的深度伪造、或一个被恶意利用的开源模型。因此,在推动长期制度建设的同时,也需要“临时措施”——例如,中美两国单方面承诺不开发完全自主的致命武器,并呼吁其他国家跟进。
四、结语:竞争中的合作,对抗中的共存
“跨数字文明的安全体系”是一个理想主义的构想。在当前的国际政治氛围中,它看起来遥不可及。中美之间的战略互信处于历史低点,双方都在将对方视为“战略竞争对手”甚至“生存威胁”。在这种背景下,谈论合作似乎是不合时宜的。
然而,历史告诉我们:最危险的时刻,往往也是最需要合作的时刻。冷战期间,美苏两国在古巴导弹危机后建立了危机沟通热线,并签署了《部分禁止核试验条约》《反弹道导弹条约》等一系列军备控制协议——尽管双方仍在全球范围内激烈竞争。这种“竞争中的合作”是可能的,也是必要的。
在token霸权时代,类似的逻辑更加成立。中美两国可以竞争谁先实现AGI、谁拥有更强大的算力、谁在AI军事应用上领先——但必须合作确保AGI是安全的、算力不会被滥用、以及AI军事应用不会失控。这不是“理想主义”,而是“现实主义”——因为任何一方的AI失控,都会对另一方造成灾难性影响;任何一方的AI武器误判,都可能将整个世界拖入战争。
布热津斯基在《大棋局》的结尾写道:“美国必须制定和执行一个全面、综合和长远的欧亚地缘战略。”在token霸权时代,这句话需要被改写:中美两国必须共同制定和执行一个全面、综合和长远的全球AI安全战略。
这不是一个选项,而是一个必需。因为在智能时代,没有国家是孤岛。每一个token的生成,每一次模型的迭代,每一个数据点的流动,都将我们更紧密地连接在一起——也将我们更脆弱地暴露在共同的风险面前。
安全体系不是乌托邦。它是我们这个时代的“诺亚方舟”——不是为了逃避洪水,而是为了在洪水中生存。而建造这艘方舟,需要中美两国的共同努力,以及所有国家的参与。
棋局还在继续。但这一次,棋手们必须意识到:如果棋盘翻了,所有人都会输。







