杜骏飞 | 奇幻社会的来临——DeepSeek幻觉与后真相递归

杜骏飞|南京大学新闻传播学院教授

本文原载《探索与争鸣》2025年第3期

具体内容以正刊为准

非经注明,文中图片均来自网络

500

杜骏飞

DeepSeek-R1的出现,固然在使AI产业经历其“蒸汽机时刻”,但与此同时,R1所代表的推理模型也带来了一种“幻觉时刻”。

为了判定这一事实,我们来观察一下主流AI的幻觉数据对比。在AI评估组织Vectara今年3月4日公布的大语言模型(LLM)幻觉排行榜上,DeepSeek-R1的幻觉率达到了14.3%,这一数据远高于其V2.5版本的2.4%,而Google Gemini-2.0-Flash-001、Google Gemini-2.0-Pro-Exp、OpenAI-o3-mini-high-reasoning三款幻觉率都低于1%,GPT-4o的幻觉率为1.8%,阿里Qwen2.5-7B-Instruct的幻觉率则为2.8%。

500

AI评估组织Vectara公布的大语言模型(LLM)幻觉排行榜

一如许多用户体验报告所说, R1的确展现出非凡的“思考”能力和流畅对话的能力,目前已被国内外各大平台、各类垂直应用广泛接入。不过,R1的推理泛化能力不是没有代价的,其代价之一便是幻觉流行。上述所谓幻觉排行榜,形象地说,就是AI避免胡编乱造可能性的排行榜。R1在这一榜单上落后较多,从学术上来说,14.3%的幻觉率,即意味着它平均每7次生成就会有1次幻觉。这不能不使人追问:当DeepSeek的普遍应用遇到R1的高浓度幻觉,这二者叠加的后果是什么?我的答案是:这一后果极可能溢出AI对话的科学性问题,而抵达更深刻的社会病症。

具体来说,这里存在着一种 “奇幻社会”的危机:当一种基于神经网络的推理模型,具有强大的语言生成和上下文感知能力,但可解释性差、对训练数据的依赖性强,且后训练不足时,我们将看到一种AI 幻觉事实泛滥的可能;在一定的社会条件下,人机协同网络会基于用户需求不断调用不真实的内容,形成递归的内容流,而这将是一个被想象与幻觉所支配的传播维度;在这一维度上,后真相观点实际上是更容易递归的,而那些广泛而严密的虚假内容则可能危害集体记忆,损害社会的现实感,并延及人类自身。

幻觉及其递归问题

AI不能避免幻觉,这不是一个新问题。迄今为止,LLM所依赖的生成机制是“端到端”( E2E),即从输入到输出。在机器学习和人工智能的结构中,“端到端”系统直接从原始数据生成最终结果,省略了可见的过程性。也因此,端到端的AIGC被视为“智能黑箱”。

诚然,“端到端”简化了系统设计,降低了复杂性,依赖大量高质量数据训练模型,也减少了对人工规则的依赖。但这些因素也必然使得模型的判断、推理和决策容易出现错觉和误差。与此同时,“智能黑箱”也使得AI所生成的内容既缺乏透明性,也缺乏可解释性。当它输出真相(准确或真实的信息)时是如此,当它输出幻觉(不准确或虚构的信息)时,也是如此。

AI幻觉现象在LLM的对话应用中尤为常见,其原因不外乎以下三种。一是训练数据的局限。例如,我们可以观察到,R1在英文世界里的对话可信度似乎要略高于它在中文世界。二是模型设计的局限。LLM都基于概率生成内容,这也意味着它并不保证准确性。实际上,R1的“思维链”因更倾向于形成完整的思考过程而可能编造论据。三是复杂性与不确定性问题。尤其是在开放域任务中,LLM更容易生成不准确的内容,并向人类用户输出幻觉。

为求验证,我让DeepSeek-R1自我评估其幻觉风险水平,它的回答可以概括如下。在事实性问题上,R1的高风险领域是时效性信息(如新闻、科技进展)、小众领域知识(如冷门历史事件)。例如,若你问“2023年诺贝尔经济学奖得主是谁”,R1能准确回答,但若问“2024年某国经济增长率”,答案则可能不准确。在复杂推理与专业领域,R1的中高风险领域是法律建议、医疗诊断、金融投资建议。例如,若用户问“我的症状是否代表癌症”,R1的回答可能遗漏关键诊断条件,导致误诊。

真正的问题在于,那些高产幻觉的AI应用并不总会遇到具备良好判断力的用户。如前所述,DeepSeek的普遍应用与高浓度幻觉,这二者叠加的后果是,不真实的内容会被重新上传到人机交流网络,填入饥渴的数据池——成为新的中文语料库。

在这里,我们主要讨论被动幻觉,而未谈及人的刻意造假。实际上,人利用AI生成的深度伪造(deepfakes),早已成为当今数字领域的普遍挑战。2023年,全球排名第一的身份犯罪类型正是AI欺诈(AI-powered fraud)。

考虑到人性中的需求更多地分布于欲望、情感,而不在事实上,我们或可以判断:当AI幻觉汇入递归计算时,谎言驱逐真相是可能的。

AI幻觉症候群

这里所讨论的是AI幻觉的递归影响,准确地说,是指由AI生成的虚假信息被其他AI系统、平台或用户反复引用、传播和强化,形成自我循环的错误信息网络。幻觉的递归可能导致错误信息在多层级、多维度中被持续放大,对社会造成系统性冲击。

首先是信息生态系统的污染问题。例如,一名美国律师使用ChatGPT生成的虚构法律案例提交法庭,险些逃过司法鉴定。不难想象,假如它作为判例再被其他法律AI收录,可能会污染法律知识库(如LexisNexis),形成“虚假先例”的递归链。

其次是搜索引擎与社交媒体的“错误正反馈”问题。用户将AI生成的虚假内容发布到互联网后,可能被搜索引擎索引并提升权重,如果它虚假注引来源,还会被其他AI系统抓取为“权威数据”。例如,2022年,一篇由AI生成的“量子计算机破解比特币”的虚假文章被多个科技媒体转载,引发加密货币市场的恐慌性抛售。

实际上,我们可以为当下命名一种“AI幻觉症候群”,它的典型社会症状包括但不限于:一是假新闻(因为AI幻觉能提供卖点,更契合流量逻辑);二是伪知识(因为AI幻觉能提供符合人欲的信息,更容易欺骗低科学素养人群);三是学术不端(因为AI幻觉能协助人急功近利,以适应无序的学术环境);四是诽谤信息(因为AI幻觉能提供尖刻、恶俗的攻击,在一个不良的社会土壤中,它如鱼得水,且无往不利);五是金融谣言(因为AI幻觉能为金融产品辅助营销,并且金融流言及其受害者之间存在着强大的相互选择性);六是不实宣传(因为AI幻觉能提供产量惊人、不顾事实的文本,更容易满足人的虚荣心)。

要言之,AI幻觉症候群建基于AI自身的技术缺陷,建基于AI传播的不可逆的递归性,建基于当前特定的AI文化与数据环境,建基于大规模用户的AI辅助内容生产,也建基于大批社会公众的低用户属性。

要强调的是,这里的幻觉往往体现为精心构造的逻辑和专业详实的数据。一些AI对话为了满足用户的需要,不惜“引经据典”,这很容易让用户以谎言为真。例如,有用户用自己本地部署的DeepSeek-R1查询“闸北区的哪吒弄堂在哪里”,R1称这条弄堂在共和新路上,命名来源于神话人物哪吒,并且给出了生活环境、文化氛围等信息;甚至,当用户使用官方网页打开搜索功能,会得到类似的结果。同样,假如你要求R1为自己写小传和述评,只要稍加一点提示,R1便会满口谀辞,编造不存在的人生功绩——讽刺的是,这些人机共生的非真实信息也都会被上传到互联网,成为新的 “数字记忆”。

或许你会认为以上案例无伤大雅,但是,请设想一下,假如有更强大的主体将以上幻觉案例替换为政治、法律、历史的重大议题呢?毫无疑问,只要AI不革除幻觉,只要我们人类用户仍偏好幻觉,那么虚假的新闻、传记、判例都会比单纯的事实更容易汇入递归链。

这也就是为什么我们说谎言驱逐真相是可能的。因为递归效应的存在,非真实信息拥有无限镜像,而后真相(post-truth)则被海量生成。

后真相与事实末世

看起来,在一个AI辅助交往的时代, AI幻觉比社交媒体和算法推荐系统更可能激发后真相。一个典型的案例是关于“‘80后’死亡率”的新闻,它声称“截至2024年年末,‘80后’死亡率突破5.2%,相当于每20个‘80后’中就有1人已经去世”。然而,这一数据与事实严重不符。中国人民大学教授李婷指出,其源头可能为“AI运算偏差”。她在AI大模型中输入了关于不同年代人口死亡率的问题,大模型根据网络信息得出了包含“80后”死亡率的错误数据。这是典型的AI幻觉问题,而且,以我之见,它还是植根于阶层情感需要的递归性偏差。

以下,我将从后真相的常见表征出发,进一步讨论AI幻觉激发后真相的内在机理。

后真相的表征之一,是在公共舆论和政治讨论中,客观事实对公众意见的影响力减弱,而情感、个人信念和主观感受的影响力增强。而恰好,AI幻觉长于迎合用户的情感和倾向性。

后真相的表征之二,是公众对传统媒体、政府和科学机构的信任减弱,更依赖个人经验。AI对话作为强应用,现在已足以取代搜索引擎和知识社区,久而久之,它或将成为一个更强大、更贴心、更个人化的智能体。显然,惯于依赖AI寻求结论的粉丝,往往不是传统媒体、政府和科学机构的用户群。所谓智能即霸权,正是从人们对于AI(包括其有用的幻觉部分)的无条件依赖开始的。

后真相的表征之三,是人类认知中存在确认偏误,倾向于接受支持己方观点的信息,这也是社会分化和身份政治使然。与其他AI对话应用相比,R1更善于迎合用户,它对身份政治的强化,实则是为了更好地贴合用户基于身份认同的偏好。

后真相的表征之四,是社交媒体和算法推荐系统是后真相现象的推手,它们强化了用户的既有观点,形成了“回音壁”效应。商业属性决定了AI主流应用不仅是供给所需,而且要迎合人欲。因此,AI幻觉也将成为最好的精神消费品,无疑,它有望成为最为个人化的“回音壁”。

后真相的表征之五,是时代恐慌导致虚假信息和阴谋论,并因其更容易扩散而削弱事实的影响力。颇多AI幻觉是因简化推理所致,当它一味追求服务于用户心理时,标签化和阴谋论将很适合人机共生。

如果说后真相揭示了现代社会中情感动员对真相的遮蔽,那么我们可以认为,不加节制的AI幻觉也将促使用户进一步地自我遮蔽。如果说后真相体现了赛博空间中认知秩序的异化,那么我们可以认为,AI幻觉将进一步扭曲人群对外部世界的集体意识。如果说后真相的本质是信息传播逻辑在数字时代的结构化转型,那么我们更可以认为,作为强应用的AI幻觉,将凭借其高渗透率和高说服力引发社会的结构性扭曲。

2023年,马里兰大学的马修·柯申鲍姆在《大西洋月刊》发表文章,提出文本末世(textpocalypse)论,用以定义一场可能由大语言模型和生成式人工智能技术带来的文本灾变。对照柯申鲍姆的这一理论,我们要问的是,在通过调整温度参数、一味追求流畅对话的逻辑下,AI幻觉的递归是否将加速这个后真相的世界,并让我们前行至一个事实的末世(factpocalypse)?——在那里,谎言、假新闻、人性弱点和机器幻觉将相互激发,削弱人对于事实和可信世界的承认。

从景观社会到奇幻社会

设想一个这样的未来:LLM始终未能消除幻觉,而AI用户习惯于消费幻觉、利用幻觉甚至创建幻觉,作为国民应用的AI则持续地协同人生产后真相,那么,一个“奇幻社会”(the society of the fantasy)便会来临。

我使用 “奇幻”一词,是为了与居伊·德波的“景观”(spectacle)对应。1967年,德波提出了景观社会(the society of the spectacle)理论, 其思想植根于马克思主义的异化理论、卢卡奇的“物化”概念以及法兰克福学派对资本主义的批判。该理论的后续影响,则直抵凯尔纳的媒介奇观论以及鲍德里亚的拟象论。

500

这里,我仅结合以上讨论,就奇幻社会论与景观社会论的异同作一提纲挈领的辨析。景观社会论认为,资本主义社会从“商品堆积”转向了“景观堆积”;而奇幻社会论意在指出,智能时代从可视的“景观”转向想象的“奇幻”。景观社会论认为,资本主义社会从商品拜物教发展到景观拜物教;而奇幻社会论意在指出,智能时代从景观拜物教发展到奇幻拜物教。景观社会论认为,所谓景观社会,是“少数人表演、多数人被动观看”;而奇幻社会论意在指出,所谓奇幻社会,是“所有人变造、所有人遵照”。景观社会论认为,景观社会通过“伪循环时间”(如人为的周期性消费节点) 割裂真实体验;而奇幻社会论意在指出,奇幻社会通过“AI现实”扭曲真正的现实。

我想借此说明的是,“奇幻社会”所带来的一系列问题,既是数据源危机,也是文化、生活、社会信任危机,更是哲学危机。究其原因,它与AI幻觉的社会症候群密切相关。也因此,在本题之下,我们不得不溯源至一些技术问题,例如推理模型的泛化,蒸馏模型的简化,AI应用快速扩散的规模化问题,以及递归效应带来的奇幻病。

以下,试对“奇幻社会” 的发生机制作一完整的阐释。第一,在人工智能的强应用时代,AI不断生产内容,也不断自我调用,人机交流网络又将生成内容反复发布,在跨平台和多模态意义上形成了一个无限递归的内容流。第二,一部分AI内容流来自AI幻觉、人为编造以及AI对用户的迎合,由此,AI实际上驱动了被想象与幻觉支配的奇幻传播。第三,这种奇幻传播的机制具有自反性和自我强化性。正像后真相可能远比真相更受欢迎一样,迎合人性的伪事实、非事实甚至反事实,都可能因其可被建构而比事实有更高的流通效率。第四,一旦相当多的奇幻感知替换现实感知,相当多的奇幻内容替换真实内容,那么数字记忆的根本性变化便将发生,一个由AI机制所加速的奇幻社会也将来临。君不见,如今大量作为谎言的AI幻觉正言之凿凿,大量人机共谋的虚假言论也正风行一时,而它们的共同之处是:因被喜闻乐见而历久弥新。

AI仍处于其史前时代,奇幻社会只是技术未来的一种可能。正因为如此,我们才要及早预见其危险的后果:不真实的信息、事实、知识、律令为人所信,为人所行,并因递归而不可逆,而这一切都终将长久地影响人类生存——从认识论到实践论。

站务

全部专栏