除了资本,还有技术?——理解马斯克站台特朗普的深层逻辑|政治

编者按

据环球网综合外媒报道,当地时间10月5日,美国前总统、共和党总统候选人特朗普重返宾夕法尼亚州巴特勒市并举行了一场“备受瞩目”的竞选集会。当天,马斯克受邀参加了上述竞选集会,并上台与特朗普同框,这是马斯克首次公开支持特朗普。现场画面显示,马斯克戴了一顶黑色的“让美国再次伟大(MAGA)”帽子,两度在台上高高蹦起,公开表达对特朗普的支持。此新闻发布后,引发国际社会广泛关注。有观点指出,除了马斯克的个人立场,应该关注其代表的美国阶级与群体,这是资本与政治的再一次深度结合。有观点则认为,除了资本,应该看到,马斯克所代表人工智能高科技公司的入局,将会给日益逼近的美国大选带来新的变数。

事实上,AI 技术的快速发展引发了越来越多的关注。据媒体报道,Axios 的分析显示,美国至少有26个州已经通过或正在考虑相关法律,以监管选举中使用的生成式 AI。这意味着,在未来的选举中,AI 将不再是一个简单的技术工具,而是一个可能影响投票结果的 “游戏规则改变者”。在生成式人工智能的帮助下,两党或选举组织利用AI技术精准投递信息。然而,这种技术也可能加剧选民的偏见与分歧,加深美国政治生态的技术性割裂和不稳定性。因此,理解马斯克站台特朗普,更深层次的是要看到当下的生成式人工智能对政治的影响,全景呈现技术政治的多面性和复杂性。本公众号特推出此文,供读者思考。仅代表作者观点,不代表公众号立场。

新兴人工智能的政治影响与治理策略

王中原|复旦大学社会科学高等研究院副教授、国家发展与智能治理综合实验室(教育部)兼职研究员

本文原载《探索与争鸣》2024年第8期

具体内容以正刊为准

非经注明,文中图片均来自网络

技术与政治总是在人类历史长河中共生演化。以生成式人工智能、交互式人工智能、大模型技术、通用人工智能技术为代表的新兴人工智能将深刻塑造当代政治,并伴随政治的应用与规制向前发展。人工智能(AI)系统旨在模拟人类智能,完成学习、感知、推理、预测、解决问题、规划决策等任务。新兴人工智能采用大型预训练模型、大语言模型(LLMs)、多模态基础模型(MFMs)、扩散模型等前沿技术,能够高效处理海量多模态数据、学习复杂模式、实现跨模态内容生成及自动化决策。较之传统机器学习,新兴人工智能更加注重数据驱动,具有更强的自适应学习能力,可在不同的环境和任务中进行迁移学习,并借助增强学习实现持续优化。因此,新兴人工智能在智能表现、适应能力、灵活性和创造性方面更加接近人类智能,能够应对更加复杂多样的决策需求。这些性能突破为人工智能在政治场域的应用开辟了新空间,同时也孕育着新的技术焦虑。

500

图源:环球网

政治生活的哪些关键领域会受到新兴人工智能的影响?人工智能进步能否优化现代政治系统,抑或动摇民主政治根基?人工智能的技术特性及人机关系模式如何决定其政治影响?人工智能技术真的中性吗?新兴人工智能的蓬勃发展催生一系列前沿政治学议题,本研究尝试构建一个分析框架,全景呈现技术政治的多面性和复杂性,为相关研究提供认知图谱。本文第一部分将从信息机制、交互机制、决策机制三个维度阐释新兴人工智能塑造当代政治的作用路径;第二部分将聚焦政治输入、政治过程、政治输出三个环节,分析新兴人工智能影响当代政治的关键场景、应用前景和潜在风险;第三部分将从开发者、使用者、监管者三方视角,探讨引导和规制新兴人工智能政治影响的可行路径。

本文在既有研究基础上,力求作出如下推进。首先,在广度上,本文将从三个环节及其六大场景系统阐释新兴人工智能如何影响当代政治,包括政治输入(选举政治、协商政治)、政治过程(政治代表过程、公共政策过程)、政治输出(政治回应、政治问责)。其次,在深度上,本文区分技术特性人机互动模式两个维度,剖析新兴人工智能如何通过重构信息机制、交互机制、决策机制影响政治系统,揭示不同政治影响的技术原理和形成过程。此外,本文并不急于定性,而是平衡地分析人工智能在政治领域的应用前景及其潜在风险,并探讨产生异质结果的影响因素及其治理策略。再次,在锐度上,本研究认为人工智能技术的政治风险部分源自人机互动中的“关系效应”,但也部分植根于技术特性的“本质缺陷”,因此,人工智能治理须区分技术特性和人机关系两个层面。最后,本文认为政治场景相较商业场景更具敏感性和冲突性,人工智能的政治应用及其规制本身即是一个充满争议的政治问题,这就要求更高层次的民主创新。

新兴人工智能影响政治系统的关键机制

新兴人工智能通过哪些机制影响政治系统?本文从“技术特性”和“人机关系”两个维度,探讨新兴人工智能如何通过重塑信息机制、交互机制、决策机制影响公民参与、政民关系和公共决策(见表1)。本文认为,人工智能技术并非中性,新兴人工智能本身的诸多技术特性决定了其同时内嵌了功能和风险,这些功能或风险会在不同的人机关系结构中被放大或遮蔽,呈现出多样的组态和生态。技术政治向何处去取决于我们对技术特性的认知和控制,以及我们对人机互动模式的选择和规制。

500

(一)信息机制

新兴人工智能改变政治运行的信息机制。就积极方面而言,以生成式人工智能为代表的新兴人工智能能够提供前所未有的政治信息,其功能包括信息的聚合、转译、归纳、建议选项等,让民众和政府对公共事务有更加全面和深入的知识准备。与传统的检索系统或知识库不同,生成式人工智能依靠对海量人类知识和数据信息进行预训练和微调,再根据提示或指令涌现性地生成使用者需要的新信息和新知识。大模型的规模效应(scaling law)可促进以下功能实现。(1)信息聚合:完成人类现有知识和数据最大限度的解码、训练、抽取和归纳,构建起聚合各类政治知识的信息基座。(2)信息流通:实现跨语言(cross-lingual)和跨模态信息的自动翻译和转码,突破信息和知识的“巴别塔”困境,通过信息流通和知识互借趋近“群体智能”,并促进政治信息更高效地触达公民。(3)信息生成 :提供新的信息组合,凭借生成和涌现能力扮演咨询专家,在问答和模拟中为用户提供多元观点、解决思路和策略建议。上述新功能促使信息生产、传播、应用发生深刻转型,为政治系统注入全新动能。

就消极方面而言,智能技术并非完全中性,新兴人工智能的技术特性使其提供的信息和知识存在诸多局限性。(1)准确性:生成式人工智能的底层技术是概率预测,即根据已有数据中的模式(patterns)和使用者的提示(prompts)预测最高概率的内容。概率性决定了其生成内容并非基于信息集总和事实判断(有别于知识库),难免存在置信区间外的错误预测。(2)无偏性 :基于历史数据预训练的大模型必然会重现和强化数据中的现存偏见,在性别、年龄、族群、地域等维度上生成偏见信息,甚至呈现显著的政治意识形态倾向性。(3)外延性:大模型的训练数据通常截至某个特定时点,对此后的政治动态或全新的政治现象知之甚少或出现认知幻觉。(4)可及性 :智能信息工具的商业化和定制化趋势,导致部分群体和组织享有比其他群体更强的信息赋能,进而产生信息能力的不平等。(5)操弄性 :恶意行动者可操弄信息生成和流通过程,通过影响训练数据、模型设定、参数选取、训练方法、提示策略等,生成符合特定目标的信息,并依托智能计算快速传播。上述局限性凸显了政治领域引入智能信息机制的复杂性,轻则导致民众对公共事务的认知失真,重则引发政治信息失序。

(二)交互机制

新兴人工智能改变政治运行的交互机制。就积极方面而言,新兴人工智能凭借丰富高效的内容生成能力和实时沉浸的沟通交互能力,可极大提升政治互动过程的效率和体验。(1)交互渠道:生成式人工智能和交互式人工智能与社交媒体、政府网站、热线平台、政务应用等融合,可以打造智能化、沉浸式的交互环境,为政民互动提供全时空的开放渠道。(2)交互主体:大模型支持多语种、多模态和多场景的交互,降低边缘群体(少数族群、残障人士等)和忙碌群体(工薪阶层、年轻人群等)的互动成本,培育“积极公民”。(3)交互体验:人工智能系统能够精准识别用户意图和需求,提供个性化的互动体验,进而激活有序的政治参与,提升参与效能感。以上技术突破有助于提升政治系统的活力,增进政民互动的广泛性和代表性,克服日益严峻的政治疏离。

就消极方面而言,人工智能对政民互动的影响亦取决于政治行动者的行为方式,其中孕育着交互异化的多重风险。(1)操弄交互:恶意行动者可利用人工智能系统生成误导性内容和进行瞄准式交互,诱导公众参与或形成特定偏好。尤其当生成式人工智能与社交机器人、计算传播、认知作战等技术结合时,可以精准且隐秘地影响用户,实现行为操控。(2)阻滞交互:政治行动者可面向特定受众生成和投送虚假信息,以低成本、大规模、高频率的攻击性内容污名化对手,抑或以虚假内容放大对方声量以触发平台或官方的审查机制,阻滞对方参与。(3)混淆交互:政治行动者可以利用生成式人工智能的内容生产能力和社交机器人的内容传播能力,向官员邮箱、政务应用、社交媒体等投送大量人工智能编制的诉求信息和政策观点,营造虚假的群体诉求和舆情态势,放大特殊利益的影响力。(4)极化交互:政治行动者亦可借助人工智能工具扭曲交互环境,制造并传播谬讯和恶讯,沿着特定社会割裂线和政策立场激活群体间的冲突界面,调动民众激进情绪,加剧政治对抗和社会撕裂。(5)交互无感:过度依赖人工智能工具开展政民互动,会破坏政治生活的温情和真实感,造成民众与政府的情感脱钩。上述风险均源于对智能交互的滥用或依赖,容易放大智能技术的负面特性,助长特定行为体的政治操控力,引发政治极化甚至政治互动失序。

(三)决策机制

新兴人工智能改变政治运行的决策机制。就积极方面而言,新兴人工智能凭借强大的信息处理、场景模拟、策略生成和预测分析能力,为政治决策提供自动化和智能辅助两种赋能路径。(1)自动决策(automated decision making,ADM):新兴人工智能能够更高效准确地处理多模态非结构化数据(在政务场景中尤为常见),并涌现性地生成新的洞察和预测,为决策自动化注入新动能。相较于人工决策,智能决策系统更加客观中立、标准统一,并能基于实时追踪和预测分析进行事前干预,在福利分配、警务执法、司法判决、行政监管、移民审查等领域具有应用前景。(2)辅助决策:生成式人工智能可扮演虚拟智囊,成为决策者的“副驾驶”。通过与决策支持系统(decision support systems,DSS)融合,大模型能够在动态情境中评估复杂信息并预测趋势走向,并完成决策支持和策略制定。“社交听取”(social listening)工具亦有助于政府实时跟踪网络反馈 ,并生成回应建议。(3)决策模拟 :新兴人工智能可训练生成近似真实事件概率结构的大量合成数据(synthetic data),决策者可据此模拟真实世界的决策场景并评估可能结果,为明智决策奠定基础。总之,人工智能工具有望优化政治决策流程,提升决策效率和决策质量。

就消极方面而言,鉴于政务决策的重大影响,新兴人工智能在自动化和智能辅助决策中仍面临诸多亟待解决的挑战。(1)决策黑箱:新兴人工智能系统的模型架构和算法设计更为复杂,涉及多模态数据和超大规模参数,使其内部决策程序对用户和监管者来说极不透明,也难以就其决策依据给出令人信服的解释,加剧了决策黑箱问题。(2)决策误判:生成式人工智能本质上是概率预测模型,其生成的决策判断是基于模型架构和训练数据预测出的最高概率结果,这决定了该决策过程必然存在误差,由此导致决策误判。(3)决策偏见:训练数据不平衡或代表性不足将促使决策模型学习并固化已有偏见,加之特征选择、模型训练或指标评估等环节缺少伦理考量,算法系统则倾向于作出对特定群体不公平的决策。(4)决策失信:智能决策容易产生权威不足、算法避责和矫正滞后等问题,降低公众的信任度,尤其当涉及关键公共决策时,容易引发政治信任危机。总之,政治决策无小事,政府在部署人工智能决策系统时,必须审慎考量其技术特性及人机关系新模式所产生的多重政治社会后果。

新兴人工智能与政治输入

新兴人工智能正深刻影响政治输入环节,包括选举、协商、游说、动员、捐款、意见表达等政治参与活动。公民参与是政治系统良性运转的动力之源,然而“参与萎缩”现象在诸多当代政体中成为新常态。新兴人工智能的引入或可扭转该趋势,重塑政治参与的机会、意愿、行为、能力和效能感,催生依托智能技术的参与新形态(participation mediated by AI),进而影响政治的输入合法性(input legitimacy)。

(一)选举政治

选举是当代民主参与的典型形式,新兴人工智能将改变竞争性选举的运行方式。一方面,智能技术赋能选举,提升参与热情和民主活力,丰富竞选活动的形式。在选民参与层面,人工智能助手可便利地为选民提供选举程序、政策立场和候选人信息,并通过个性化的多模态资讯解析帮助选民理解复杂政治议题。智能交互平台亦为选民创造了表达观点和参与讨论的新渠道,增进选民的交互体验和参与效能感。人工智能工具亦可捕捉选民的价值理念和政策偏好,生成个性化的捐款或投票建议,降低参与成本并提升决策质量(见图 1)。在竞选组织层面,人工智能系统可协助候选人生成竞选讲稿、政策文本、社交媒体文案,模拟辩论场景;开展精准的选民调研和舆论分析,把握选情趋势;优化筹款和动员方式,提升选举资金的使用效率;识别虚假信息,防范和应对恶意攻击;打造候选人的人工智能分身,以保持与选民的跨模态沟通和全天候互动。

500

另一方面,选举智能化潜藏多重风险。其一,错误信息和选民误导。受限于训练数据和算法偏差 , 现有人工智能系统提供的选举信息存在大量脱离事实的内容,可能误导选民。一项针对瑞士联邦大选和德国州级选举的第三方调查发现,微软 Copilot、必应 Chat 和 ChatGPT 等知名人工智能系统约 30% 的回答存在事实错误。其二,虚假信息和选民操弄。恶意行动者可利用人工智能生成大量含有诱导性和欺骗性信息的文本、图片和视频,扰乱选举的信息环境。竞选团队亦可借助人工智能虚拟形象、会话机器人和社交机器人等推进计算传播和影响力攻势(inffuence operations),操纵选民决策或压制选民投票。其三,负面竞选和政治对抗。人工智能技术可被滥用于生成负面竞选和人身攻击内容,以诋毁和中伤对手,或激化观念分歧和情感对立,将选举引向意识形态对抗而非理性政策辩论,加剧政治极化。例如,2023 年 4 月,美国共和党使用生成式人工智能制作了一段包含多个虚构冲突场景的视频,借此攻击拜登为“史上最弱总统”。其四,选举信任和政治稳定。人工智能工具可能被恶意行动者滥用于选举干预,破坏选举过程的安全性和公正性。尤其在选情焦灼的关键时刻,人工智能干预可能左右胜败方向,导致败选方及其支持者拒绝承认选举结果,引发宪制危机甚至选举暴力。事实上,2024 年达沃斯世界经济论坛发布的《全球风险报告》已将人工智能干预选举列为全球最大政治风险之一。

(二)协商政治

民主协商是政府治理过程中重要的公民参与形式。新兴人工智能为协商政治带来新的发展契机,同时也引发新的技术挑战。一方面,人工智能可以丰富协商的内容和形式,增进协商过程的公正性、透明度以及商谈质量,进而提升政治过程的代表性和包容性。其一,角色扮演和流程管理。人工智能可担当协商的主持人、协调者、仲裁者和共识建设者,以中立立场设定协商议程、促进平等发言、弥合潜在冲突、助推建设性对话,识别并过滤协商过程中的虚假信息,守护协商的公正性和平等性。其二,能力培训和意见生成。生成式人工智能能创建教育培训材料,帮助参与者理解协商原则和流程,提升公众的政策知识和协商能力;通过身份设定生成针对特定议题的观点意见、解决思路和行动方案,赋能参与者的沟通对话本领,促进协商的创新性和多元性。其三,对话支持和无障碍参与。人工智能工具借助自然语言处理、自动翻译、跨模态生成等功能可促进跨语言对话,提供灵活无障碍的协商方式,提高协商民主的包容性。其四,场景模拟和方案路演。人工智能可模拟政策影响并可视化不同情景和方案,帮助参与者理解潜在协商结果。通过切换和比对不同条件、场景和方案,寻求共识路径。其五,数据分析和协商优化。人工智能可分析参与者的语言、行为、情感表达和交互反应等协商数据,实时整理各方观点并优化协商过程,提炼共识点。上述功能有助于构建人工智能赋能的新型协商系统,促进协商政治的技术转型。例如,美国斯坦福大学的全球协商民主在线平台正在试验人工智能主持,尝试运用人工智能技术提供跨语言支持、识别滥用行为、实时分析协商内容等。

另一方面,人工智能技术在协商民主中的应用面临多重困境。其一,性能局限和分歧制造。当前人工智能系统在处理大规模参与、复杂议题、精细辩论和价值选择时存在性能局限,其算法倾向于关注短期问题和即时效果,这使得智能协商难以应对长期的复杂社会问题。此外,人工智能预测可能带来事实错误或放大极端声音,加剧意见分歧。其二,算法偏见和协商操弄。当前人工智能技术在理解复杂情景、特殊语境和文化差异等方面尚存缺陷,可能导致不准确的意见总结和歧视性的决策建议。尤其当训练数据带有偏见时,模型输出会低估或忽视特定群体的代表性,导致协商不公。此外,人工智能技术可能被滥用于制造身份伪装、操纵意见表达或编制虚假共识。其三,技术集中与代表鸿沟。人工智能技术的不均衡掌控将导致少数人占据技术优势和话语势能,加剧协商过程的权力集中,破坏协商过程的民主性。同时,技术排斥和能力鸿沟容易导致协商过程的代表性失衡。人工智能技术甚至可被滥用于伪造代表性和虚假参与(participation washing),成为为特定结果背书的工具。其四,信息过载和信任危机。新兴人工智能可以高速度低成本地生成和导入海量资讯,这可能引发协商过程的信息过载和参与爆炸,使得关键信息被遮蔽。此外,过度使用虚拟身份和生成技术会削弱对话和合作的诚意,产生人机之间的委托代理困境,降低协商民主的真实性和可信度。

新兴人工智能与政治过程

新兴人工智能正逐步嵌入政治过程(包括政治代表过程和公共政策过程)的各个环节,对议程设置、政民互动及决策质量产生深远影响。当代政治日益注重政治代表性和政策公共性,人工智能技术赋能国家治理过程,在提升政府开放性和决策科学化的同时,也触发代表性质量和公共性水平等诸多层面的挑战,进而影响政治的过程合法性(throughput legitimacy)。

(一)政治代表过程

新兴人工智能重塑政治代表过程。一方面,生成式人工智能等新兴人工智能技术如若运用得当,将推动代表工作的创新,在促进代表者与被代表者有机互动、改善政治代表关系等方面产生正向效应。其一,代表产生过程。人工智能技术可辅助推进更加公平的选区重划(AI-assisted redistricting),增强代表与人口的比例均衡性。例如,美国北卡罗来纳州运用抽签方式从 1000 张人工智能制成的选区改划图样中抽选方案,排除党派因素的不当干预。人工智能技术还可分析选区和选民数据,为政党匹配更具代表性的候选人,并模拟预测不同提名方案产生的实质性代表结果。未来,人工智能体甚至可能直接扮演政治代表角色,该现象已在日本、丹麦、俄罗斯等国家出现。人工智能技术亦可辅助优化代表选举过程,包括准确的选民身份认证、科学的投票站点设置、可靠的投票欺诈识别,维护代表产生过程的公正性。其二,代表履职过程。代表可借助交互式人工智能和智能问答系统,实时与选民保持密切联系。人工智能工具可定制化地生成电子邮件、社交推文及多模态的政策解读材料,实现紧密的立法沟通和选区联结;人工智能工具还可自动执行在线调查,收集分析选民诉求,追踪预测民意波动,开展更为精准的选区服务和政策说服;代表亦可借助人工智能平台,邀请公众全程参与和监督,增进立法活动的回应性和民意基础。

另一方面,新兴人工智能的技术特性及其可能的滥用,或将导致代表性偏差甚至扭曲,过度依赖人工智能工具亦会造成代表关系的虚化。其一,训练数据的非平衡性导致人工智能过度凸显某些群体的诉求可见性而忽略其他群体,造成代表性失衡。大量涌入的生成式内容未必反映真实民意分布,代表若无差别响应真人和机器人生成的诉求,将导致代表性扭曲。其二,游说团体可开发垂域智能应用,生成大量个性化的邮件、海报、游说素材和网络文案,或利用智能机器人操纵民意调查,并通过计算宣传向代表施加“虚假民意”压力。如此,原本占据资源优势的团体和党派将获得更大声量,其态度、关切和利益更易被代表。其三,人工智能工具倾向于根据代表的立场过滤信息,让政治代表只看到符合其偏好的内容而失去全局视角,造成决策者的“信息茧房”,影响代表性实现。其四,人工智能工具可能被某些政治代表用于意识形态说服和培养“赛博桩脚”,或指挥社交机器人军团发动网络影响力攻势,加速精英极化(elite polarization)与大众极化(mass polarization)的相互传导。其五,技术依赖导致代表过程非人格化,削弱代表与选民的真实互动。人工智能代理人可能缺乏关注力和同理心,尤其面对少数弱势群体时更是如此,不利于代表关系的维系和深化。

(二)公共政策过程

新兴人工智能将重塑公共政策过程,作用于议题识别、方案设计、政策采纳、执行实施和绩效评估五个关键环节。一方面,人工智能有望助力政府更加精准、科学、高效地制定和落实公共政策,推进治理现代化。其一,议程设置阶段。人工智能可分析多源异构数据,识别社会问题、公众关切和政策舆情,并借助预测建模研判潜在政策风险,为政策议程设置助力。其二,方案设计阶段。政务生成式人工智能能呈现多样化的政策方案,提供创新性的政策选项;人工智能赋能的决策支持系统可迅速准确地分析各个方案的利弊得失;人工智能自动决策系统基于业务数据搭建标准化决策流程,提升决策效率;人工智能场景模拟则能预判不同方案下的实施效果,帮助政府研判潜在风险和实施难度。其三,政策采纳阶段。人工智能可生成个性化的政策解读和宣传材料(例如垃圾分类政策),并精准投送相关政策信息;亦能生成政策培训资料,为各级实施者特别是基层官僚提供政策宣介,并实时响应其困惑和反馈。其四,执行实施阶段。人工智能能监测公共政策的精准落地,识别政策执行偏差,优化资源配置和资金管理(例如扶贫政策), 增强国家信息能力;可实时检视社会媒体和政务平台上新政策的民意反应,为政策调整提供智能支撑。其五,政策评估阶段。人工智能评估系统可制定科学绩效体系,高效完成指标建构、数据采集、计量分析和可视化等工作,帮助政府全面评价政策实施效果,并为下一步“循证决策”提供依据。

另一方面,政策过程的智能化转型亦存在诸多风险。如忽视技术缺陷和“以人为中心”的决策模式,或将导致决策失误,乃至引发政府信任危机。其一,识别偏差和决策错误。人工智能算法依赖训练数据中的关联形态,而既有数据记录了现实世界的偏见、歧视和不平等,人工智能系统倾向于将这些数据偏差固化和结构化,自动放大特定群体的政策偏好和利益诉求,而忽视全局性问题和普遍关切,从而削弱政策的“公共性”。此外,概率预测无法确保准确性,加之政务数据 “脏乱差”问题严重,难以支持决策科学。即便极低概率的误判,亦可导致个体层面的不公甚至引发系统性风险。其二,算法黑箱和复杂困境。虽然人工智能决策系统为克服反向利用和安全风险须保持一定程度的“封箱化”,但黑箱也将降低决策过程的透明性和决策结果的可解释性。规模法则(scaling law)更加剧了人工智能系统复杂化,导致决策过程难以追溯和复现。大模型预测追求关联性而非因果性,难以识别影响政策结果的关键因素和作用机制,这为政策优化带来困难。其三,技术失灵和算法避责。人工智能系统面临技术故障、灾害事件或攻击威胁,特别是缺少灾备系统和并行机制时,技术失灵可能导致决策过程运转失序。此外,一些决策者或将人工智能系统视为避责工具,在政策效果不佳或面临舆论风波时,将责任“甩锅”给非人格化的智能技术。

新兴人工智能与政治输出

政治输出是政治系统对社会需求和公共利益的响应,包括通过优化公共服务提升政府回应性、完善政治问责推动政府变革等,由此输出施政绩效。政治输出的质量直接影响政治体制的稳定性和合法性,不同政体的政治回应能力和政治问责效力反映了其治理效能。新兴人工智能正在重塑政治回应和问责机制,提升政府治理效能的同时也带来了新的治理挑战,进而影响政治的输出合法性(output legitimacy)。

(一)政治回应

新兴人工智能将变革政治回应机制,形塑智能时代的政民关系。一方面,新兴人工智能可极大增进政府的回应效率和回应质量,提升公共服务供给和解决民意关切的能力,有利于改善政民关系。其一,公共服务供给。政府可将人工智能系统嵌入各类政务应用和在线服务平台,实时识别和分析民众的公共服务需求,自动处理大量常规任务(例如智能表单生成、身份认证和政策检索),或辅助人工完成复杂的回应流程;政府可搭建全天候智能响应系统,对流程化服务实现自动审批,并打通不同业务模块,第一时间作出回应,提高公共服务供给效率;人工智能系统亦可实现用户分析和需求预测,借助对话式人工智能提供个性化的服务和引导,提升政务服务体验;人工智能技术还可自动甄别公共服务申领者的欺诈行为,预警公共服务的滥用风险,提升服务供给的精准度和公共资源的使用效率。其二,响应民意关切。智能应急系统能够收集和处理多模态的监测数据,面对突发公共危机和诉求涌入作出及时响应,并借助智能会话系统开展事前提醒、沟通和宣导。针对个体诉求,智能客服系统可 24/7 接入并即刻响应。例如,法国政府计划引入 ChatGPT 等生成式人工智能工具辅助公务员更加高效地回应民众诉求。针对普遍关切,人工智能系统可实现跨平台多模态的数据分析和趋势挖掘,引导政府在政策和立法层面作出回应。人工智能技术赋能的高质量政府回应也将增进公众对新兴人工智能的信任和接纳。

另一方面,新兴人工智能亦可能导致政府回应失序,引发政民关系紧张。其一,生成式人工智能和交互式人工智能极大降低了内容编制和传播成本,恶意行动者可借机向政府投放大量重复诉求,轻则导致政府回应偏差和政务资源浪费,重则引起政务回应系统的过载和瘫痪。传统操弄行为较易识别,但生成式人工智能编制的内容具有异质性和多模态等特征,加之借助智能机器人投放,官方通常难以应对。其二,交互式人工智能虽能突破传统聊天机器人的规则引擎,呈现出 “类人格化”的交互能力,但其回应仍高度依赖训练数据。首先,现有数据通常存在偏见和失衡,容易引发回应过程的误判和失当,例如自动决策系统在甄别服务欺诈时作出不利于移民群体的判定。其次,人工智能系统在面临全新复杂情境时,通常缺乏足够的分析应对能力,其回应往往流于表面或陷于僵化,难以切实解决实际问题。再次,生成式人工智能和交互式人工智能虽具备感知用户诉求和情感状态的能力,却也容易受到提示词(prompt)的引导和规训。一旦有恶意行为者通过虚假账户对其进行误导性训练,其输出便有可能背离事实和伦理底线。最后,由于政务数据资源分布不均、质量参差不齐,人工智能系统在不同政策领域的回应能力存在明显差异。该“数据鸿沟”叠加地域、城乡和群体间的技术鸿沟,使得过度依赖人工智能系统不仅可能导致技术红利的不均衡分配,破坏公共服务均等化原则,而且会训练政务系统善于回应技术强势群体的诉求,而拙于回应技术弱势群体。

(二)政治问责

新兴人工智能可推动社会对政府自下而上的问责(bottom-up accountability)以及政府内部自上而下的问责(top-down accountability),开辟政治问责新路径。其一,智能技术有望推动政务公开和社会监督。政务大模型能以文本、图表、视频等可交互形式将政务信息个性化地呈现给公众,生成式人工智能则能从海量政府文件中提取关键信息并生成通俗解读。民众和媒体可以与人工智能系统进行实时互动,获取某方面的政务信息和政策解释,便于开展社会监督。新兴人工智能亦可监测和分析官方投诉系统、政务平台、社交媒体的多模态数据,在海量诉求和舆情数据中甄别线索、发现问题、促进追责。这些都有助于增强社会对政府工作的问责和监督,推动构建开放透明的责任政府。其二,智能技术有望强化腐败治理和内部监督。新兴人工智能可用于监测官员的财务状况、资产变动和生活方式等,结合社交网络分析洞悉政商关系网,自动识别异常迹象和违法线索,预警和打击腐败。垂域智能系统可生成丰富的廉政教育材料,通过场景模拟开展官员警示教育。此外,智能审计和监察系统通过监测政务内网和平台数据,可实现项目、资金、采购、绩效的全流程监管(例如扶贫资金智能监管),提升政策执行合规性以及克服委托代理困境。

另一方面,政治问责是一项复杂任务,人工智能技术应用亦面临多重风险。其一,全景式智能监督将加重基层官员的数字负担,抑制其工作自主性和创新性,引发行政避责和不作为现象。智能监督系统倾向于增强高层政府和官员的控制力,导致纵向政府间权责失衡,甚至激化中央与地方的紧张关系。其二,智能技术驱动的政治问责目前尚缺乏明确的合规框架,容易遭受技术操控或滥用。恶意行动者可能利用人工智能系统的隐秘规则和技术漏洞,逃避监督、对抗审查或进行虚假指控。例如,运用生成式人工智能编造针对特定对象的虚假指控材料,包括图片、录音和视频等,扰乱或误导正常问责程序。其三,政治敏感数据通常难以获取和流通,使得模型训练所需的字段、维度和参数缺失,严重影响智能问责系统的实用性能。同时,人工智能系统对新型犯罪或无数字痕迹的腐败行为缺乏识别和预警能力,容易导致官员监督的失准或失察。此外,当受影响的官员和部门就问责结果提出异议时,技术黑箱亦缺乏可解释性和说服力,进而削弱智能问责系统的权威性和公信力。

新兴人工智能政治影响的治理路径

新兴人工智能将对当代政治产生深远且复杂的影响,尽管智能技术在政治领域呈现广阔的应用前景,但同时也孕育着多重技术风险和社会挑战。这些风险一方面源于其本身的技术特性,另一方面则是人机互动的结果。从“智能技术”到特定“政治后果”并非因果必然,其间受到诸多条件因素如政治环境、应用场景和治理策略等的影响。政治场景相较商业场景更具敏感性和冲突性,技术风险极易扩散为政治风险,对国家统治、政民关系和社会稳定造成冲击。面对人工智能驱动的政治未来(AI-driven political future),本文运用“主体—路径”的分析框架,从开发者、使用者、监管者三类主体出发,探讨如何通过“技术路径”(即针对技术特性)和“关系路径”(即针对人机关系)开展对智能技术之政治影响的治理,推动人工智能在政治领域向善、为善和守善。

(一)开发者

从技术特性入手,开发者在设计政务智能系统时,需重视训练数据的平衡性和多样性,并通过特征选择、参数调整和评估指标优化,不断提升模型准确性、公平性和安全性。开发者还应提升人工智能系统的透明度和可解释性,通过公开技术文档、代码架构及召开产品说明会等方式,让公众了解模型的工作原理。同时,开发者须升级技术手段,识别并阻断伤害性指令和存在政治操弄的 API 请求。例如,OpenAI 在 GPT 系列产品中引入了政治性议题和伤害性指令的拦截功能,并终止为具有明显意识形态倾向的人工智能系统提供 API 服务。面对技术风险,开发者可设立内部伦理审查委员会,或与外部研究者及专家团队合作,研究和审计人工智能工具的政治社会影响,并进行前置性的技术干预。开发者社群亦可依托行业规则或最佳行动指南实施同业监督。例如,2023年7月,多家头部人工智能公司——包括亚马逊、谷歌、Meta、微软和 OpenAI——向美国政府作出自愿承诺(voluntary commitments),共同推动智能技术的安全、透明、可信。

500

从人机关系入手,开发者应在交互界面的显著位置提供风险提示和使用引导,告知用户相关技术的局限性。例如,ChatGPT 会在输入框附近注明“ChatGPT 可能会犯错,请核实重要信息”。平台公司需要建立社会参与和反馈机制,鼓励用户反映异议和体验,参与人工智能工具的共创过程。例如,谷歌公司收集用户报告的不良内容、不准确推荐、违规使用等问题,用于改进推荐算法和内容过滤系统。开发者亦需针对特殊政治应用场景制定详尽的约束政策和使用规范,预防重大政治风险。例如,面对 2024 年美国大选,OpenAI 公司于 2024 年 1 月出台了专项政策,防范其生成式人工智能技术在政治选举中被滥用。相关做法包括 DALL·E 系统和 Sora 系统拒绝生成候选人图片和视频、为记者和研究者提供识别工具等。同年 2 月,20 家科技巨头在慕尼黑安全会议上签署协议,宣布共同致力于阻止人工智能生成的虚假内容干预全球各地的选举。

500

(资料图片:对话Open AI)

(二)使用者

从技术特性入手,使用者(尤其是公共部门使用者)需提升人工智能素养(AI literacy),了解所使用人工智能系统的工作原理、数据来源、内容生成机制、决策流程及其局限性,学会辨识人工智能生成内容,尤其是政治场域的虚假信息或计算宣传。在使用人工智能工具时,须审慎评估其输出结果的准确性和合理性,并考量其应用场景和作用对象。政府部门在引入人工智能系统时,应提供技术培训并制定行为准则,让使用者熟知产品性能及相关技术风险,并遵循透明程序和合规操作。例如,美国波士顿、西雅图等城市要求公务人员披露在内容创建工作中使用人工智能工具的情况,并核实生成内容的准确性。

从人机关系入手,公共部门使用者需区分智能技术在不同政策场景中实现自动决策或辅助决策的适用范围,明确哪些领域可交托人工智能、哪些需人机协作、哪些暂缓智能转型。鉴于政务场景的敏感性,应确立“以人为中心”(human-centered)的应用原则和合规机制。对实施智能转型的业务领域,需引入人工智能影响力评估框架和算法审计程序,定期评估其公平、安全与可控,必要时启动停用或退出程序。作为普通用户,可参与反馈系统和在线论坛,报告虚假信息、功能滥用和系统漏洞,就产品功能、数据使用、隐私保护等提出用户意见,帮助开发者和监管者识别潜在风险,督促平台公司打造“负责任的人工智能”。例如,Meta 公司基于用户反馈启动了标记机制,可对多家人工智能平台生成的图片进行水印标记,帮助用户识别数字生成内容。普通用户还可通过社会倡议活动、公民诉讼、公共协商和立法参与等方式介入相关治理进程,借助集体行动和舆论压力促使人工智能公司更加重视用户权益和社会责任。

(三)监管者

从技术特性入手,监管者(包括行政部门和立法机构)可运用政策工具和法律手段,定期开展算法审计、部门约谈、专项督察或议会听证等,要求政治领域的人工智能系统提升数据平衡性和算法透明度。监管者还可效仿上市公司信息披露制度,推动重点领域人工智能政治风险的信息披露,让社会了解人工智能系统的技术特性、应用方式及风险防范措施,严防算法对特定群体或政治立场产生偏见和压制。例如,加拿大 2023 年颁布的《人工智能与数据法案》要求企业在人工智能设计、开发、应用的全生命周期中采取技术措施,确保高风险人工智能系统的安全性、非歧视性和可解释性。监管机构可要求政务人工智能应用必须经过算法审计和风险评估,设立伦理审查委员会监督其技术合规性,并限制人工智能工具在特殊领域的运用。例如,欧盟《人工智能法案》将人工智能划分为“禁止类”“高风险系统”和“其他系统”三类,对不同风险等级的人工智能系统施加差异化的监管要求,并规定高风险系统必须接受政府审查。

从人机关系入手,监管者需规范政治领域的人工智能使用行为,打击虚假信息、计算宣传、影响力操弄等技术滥用,并针对选举、游说、社会评分、国家安全等特殊政治场景制定详细监管细则。例如,美国的密歇根、明尼苏达、得克萨斯等州通过立法,要求政党和候选人披露竞选中的人工智能工具使用行为,并禁止在选前使用深度伪造技术攻击对手或欺骗选民。欧盟亦禁止使用人工智能进行选举干预和社会评分。监管机构还可创建公众参与机制,邀请学界、倡议团体、行业组织和社会组织等利益相关方参与人工智能监管的公共辩论和民主协商。监管机构应建立有效的投诉处理和矫正机制,响应与人工智能相关的公民申诉并提供法律救济。鉴于技术影响的外部性,监管机构还需加强与其他国家及国家组织的合作,参与制定国际标准和运用规范,促进全球人工智能治理。例如,中国于 2023 年发起《全球人工智能治理倡议》(Global AI Governance Initiative),呼吁联合国框架下的国际人工智能治理合作,预防和打击恐怖组织、极端势力和跨国犯罪集团对人工智能技术的滥用。世界经济论坛也组建了全球人工智能治理联盟(AI Governance Alliance),汇聚了各国政府、商业领袖、学术机构和社会组织等力量,共同推动负责任、包容性的人工智能系统。

诚然,无论是各国国内层面还是国际层面,如何开展政治领域人工智能治理目前尚充满争议。虽然监管已成大势所趋,但国家、政党、利益集团、平台公司、社会团体和科研机构对人工智能的认知并非同频,加之政治立场和商业利益的驱使,各方在具体治理策略和监管细则上仍处在激烈博弈当中。例如,美国多数州有关人工智能运用于选举的监管立法至今未获通过;全球范围内“数字柏林墙”亦日益高筑。哪些方面需被监管、如何监管以及由谁来监管,本身即是一个政治问题,其中涉及权力与权利、公平与效率、发展与安全之间的价值权衡,国家与社会、政府与市场、中央与地方之间的关系变革,甚至关涉国家主权与大国竞争,极易受到政治意识形态的拉锯和牵制,这就需要更高阶的政治智慧和制度创新予以应对。因此,深度智能(deep intelligence)呼唤深度民主(deep democracy)。

全部专栏