中美人工智能对话应当谈什么?

500

  作者:孙成昊(Sun Chenghao)

  清华大学战略与安全研究中心助理研究员

  耶鲁大学法学院蔡中曾中国中心访问学者

  张学玉(Zhang Xueyu)

  清华大学战略与安全研究中心美欧研究项目青年研究员

  下阶段中美人工智能对话应明确目标、细化议题,并充分挖掘多边与二轨对话潜力。

  当前,各国愈发重视人工智能技术的重要性,也逐渐认识到人工智能技术可能给人类带来安全挑战、伦理难题等诸多风险。令人欣慰的是,各国在人工智能技术治理与风险管控领域取得一些成果,一些针对人工智能安全的多边倡议和机制犹如雨后春笋,层出不穷。

  在技术和治理不断发展的大背景下,2024年5月,中美就人工智能问题展开第一轮政府间对话。由于美国对华科技打压丝毫未减,一些人士开始怀疑对话成果。但无论从应对人工智能可能带来的风险,还是从稳定两国关系、推动全球治理的角度看,两国就这一领域的对话都具有重要意义。

500

  ▲5月14日,中美人工智能政府间对话首次会议在瑞士日内瓦举行。

  一方面,中美合作有助于更好管控、应对技术风险。目前,中美都在加紧研判人工智能技术与应用过程中的潜在与现实风险,并尝试从技术与监管两方面及时应对,积累了较多的实践经验。同时,由于中美在人工智能技术研发、应用与监管过程中各有侧重,两国经验具有一定互补性。此外,从技术角度而言,美国在人工智能基础研究与大模型建设上具有一定优势,中国则拥有更丰富的使用场景与数据累积,两国协作将有助于从模型设计和数据训练两个环节研判、应对内生性技术风险。

  另一方面,这一对话也有利于双边关系稳定。目前,科技已成为美国对华战略竞争的核心之一,中美如果能够就人工智能问题交流,进一步明确共识与分歧,将有助于改善双边关系、缓解紧张情绪。同时,尽管对话难以短期解决美国在科技领域对华采取“小院高墙”政策的问题,但考虑到人工智能广泛的应用场景,针对人工智能安全风险的交流仍有助于双方划定风险,并推动双方拓展新的交流议题,在具体场景协作中推动彼此理解。

  中美就人工智能展开对话与合作还有助于对外传递积极信号,避免大国博弈可能带来的新生风险。例如,一些欧洲国家在推进人工智能治理的过程中,也高度关注中美在这一领域的互动,认为中美如果无法有效管控科技竞争,将削弱全球人工智能治理的整体效力。同时,美国如果仍坚持组建排除中国的科技发展和治理同盟,不仅将造成技术发展不兼容,还会导致治理过程中的标准混乱,带来监管漏洞。

  但中美人工智能对话仍面临诸多挑战。目前美国在科技领域对中国采取高度警惕和整体打压策略,极大抑制两国在人工智能领域取得合作成果的意愿。美方希望将人工智能对话与美国对华科技总体政策切割,但这种一边打压一边对话的扭曲心态不利于培育对话的积极环境,也无助于增进双边互信。在操作层面上,对话还面临议题政治化、迫切风险模糊化、对话预期结果不一致这三大问题。

  首先,不同于技术人员和学者的直接交流,政府间对话往往遭遇人工智能问题“政治化”的风险,使双方不能很好地聚焦技术本身,而是更多关注技术之外的双边关系。其次,由于美国对华战略竞争不断加强,中美矛盾成为政府间对话难以回避的话题,双方难以将对话推进至对共同面对的人工智能风险的探讨,而是止步于技术领域的双边限制和制裁措施。最后,中美在人工智能风险判断、治理的国际目标和国内目标方面还存在差异,就对话成果也有不同预期。

  针对上述挑战,下阶段中美人工智能对话应明确目标、细化议题,并充分挖掘多边与二轨对话潜力。政府方面,双方可以在对话开始前首先授权二轨层面沟通或开展一轨会前会,明确对话主要目的,并调整双方预期。此外,中美下一阶段对话可设置更清晰明确的议程,以摒除双边关系紧张造成的对话重点偏离,在丰富对话内容的同时提高沟通效力。最后,对话中还可以加入更多双边技术治理的案例分享,并设置具体场景下应对策略探讨环节,将关注点从双方分歧引导至面临的共同挑战。

  在议题设置上,中美可尝试将人工智能安全问题分为“技术安全”(Technological Safety)和“应用安全”(Application Security)。前者强调人工智能在技术层面可能存在的风险,例如算法歧视、模型漏洞等,以及模型快速迭代造成的技术失控等内生风险,后者则强调技术被非国家行为体恶意利用、技术发展与应用引起的社会变革以及人工智能军事化、治理体系不兼容、监管漏洞等外生风险。

  在技术安全层面,中美可首先从人工智能技术可靠性、可控性和可解释性入手,探讨各自担忧及预期解决方式。其次,中美还可从如何确保技术非歧视性与对人类不构成危害入手,针对如何确保技术在开发和训练阶段恪守科技伦理与基本价值观、做到“以人为本”进行交流。最后,两国还可就如何应对生成式人工智能(AGI)和超人工智能(ASI)的过度发展可能带来的技术失控问题展开对话,探讨如何平衡技术发展和有效监管。

  在应用安全层面,中美可将安全风险分为非国家行为体恶意使用技术造成的安全风险、技术变革可能给社会秩序造成的风险以及国家间互动可能导致的安全风险三类。

  第一,中美可明确非国家行为体恶意或滥用技术可能给国家、社会和个人带来的安全威胁,并探讨如何从价值倡导、法律规制和技术约束三方面为人工智能技术使用设置“安全带”(seatbelts)。第二,中美可就技术变革给社会生活带来的挑战和潜在风险进行沟通。比如,如何解决生产自动化带来的失业问题和人员再培训问题,争取更好地运用人工智能技术赋能经济发展,平稳实现产业升级和劳动转型。第三,中美可就国家间互动所导致的风险外溢问题进行研判,尝试寻找管控与应对策略。同时两国有必要就如何确保中美人工智能政府间对话按时展开保持沟通。

500

  ▲9月10日,人们在沙特阿拉伯首都利雅得举行的第三届全球人工智能峰会现场的华为云展台参观。

  除合作应对风险外,中美政府间对话和二轨对话也可将如何发挥人工智能的积极作用纳入议程。两国可就应用人工智能技术推动全球气候治理、管控跨境犯罪与毒品流通、消除技术鸿沟等问题展开对话与合作。

  在对话形式上,中美应重视多边对话机会与二轨对话潜力,从多边安全视角看待中美人工智能合作,使二轨对话成为政府间对话的重要补充,并尝试将更多利益攸关方纳入其中。

  首先,中美应坚持人工智能治理的多边主义,在联合国框架下逐步建立各国普遍参与的治理机制。中美作为当前人工智能技术领先国家,能够在联合国框架下共同推动现存治理体系完善,对人工智能的全球治理意义重大,也有利于下一阶段为人工智能技术创新创造安全、有序的环境。除联合国机制外,中美也应充分利用学者论坛、科技峰会等非政府间多边对话平台,这不仅有助于规避中美对话过于聚焦双边博弈而忽视整体性技术风险的问题,也有利于中美以更宏观、开放的视角考察双边竞争可能导致的负面影响。

  中美还应继续重视二轨对话的潜力,确保相关二轨对话机制的稳定,并在未来进一步丰富二轨对话内容,将更多来自技术界与企业界人士纳入其中。中美应使二轨对话成为政府间对话的重要补充,为政府间对话奠定良好基础。例如,在政府间对话展开前,中美可以先行启动二轨层面接触,为政府间对话奠定初步共识或明确分歧点。在对话结束后,中美也可通过二轨层面的接触回顾政府间对话存在的问题,推动政府间的宏观共识在操作层面落地。

  此外,考虑到目前中美双方都已成立相关人工智能治理机构、机制或研究网络,未来两国也可推动治理机制、研究网络之间的对话,为深耕技术发展、风险防控和技术运用的专业人士建立更多沟通桥梁。此举将有助于双方在技术发展和技术应用风险上达成共识,推动两国在人工智能领域从对话走向务实合作。

  ·END·


全部专栏