陈根:大模型值得相信吗?相信大模型,后果是什么?
文/陈根
当AI胡编乱造遇上人类垃圾知识环境——我们为何正在走向“乌合之众”?这不是玩笑,而是正在发生的人类危机,很多人正在成为乌合之众的道路上快速前进。
在2026年的今天,当你打开手机,向某款大语言模型提问“如何快速致富”或“某历史事件真相如何”,它可能用流畅的语言、看起来很专业的“数据”和非常自信的语气,给你一套听起来几乎完美的答案——但这些内容却可能是编造出来的。
更糟糕的是,你把这个回答转发到朋友圈、职场群或者社交平台,成百上千人和你一样复制粘贴、继续传播,于是慢慢形成一种所谓的“共识”。没有人去查来源,没有人去验证逻辑,大家只是觉得“AI说得挺有道理”。
这不是科幻,而是已经发生的现实:AI大模型的系统性“胡编乱造”,正在和人类长期积累下来的混乱知识环境发生叠加效应。互联网、媒体、历史文本以及社交平台中本来就充满误导信息、偏见、谣言和低质量内容,而AI正是从这些材料中学习出来的。
当越来越多的人把AI当作知识来源、工作助手甚至判断依据时,它正在悄悄削弱我们的独立思考能力,最后把个体变成容易被暗示、容易被情绪带动、判断能力逐渐下降的群体成员——这正是19世纪心理学家勒庞在《乌合之众》中描述的那种典型状态。
那么,AI为什么会胡编乱造?人类知识环境为什么越来越混乱?人为什么越来越依赖AI?以及这种变化如何正在制造新的“数字时代乌合之众”?

一、AI为什么会胡编乱造:这不是故障,而是它的工作方式决定的
很多人以为AI胡编乱造是技术错误,其实不是。大语言模型本质上并不是像人一样思考的系统,它更像一个根据大量文本经验来猜测“下一句话最可能是什么”的预测系统。它通过分析过去看过的海量文本之间的关系,来推测接下来应该说什么。
这种机制决定了一件事情:它优先保证语言顺畅,而不是保证事实正确。
OpenAI在2025年的研究中明确指出:模型在训练过程中更容易学会“给出一个听起来像答案的回答”,而不是“承认自己不知道”。因为训练材料大多数都是正确答案示例,很少包含“我不知道”的表达方式。
Yale大学2025年的研究也发现,如果模型没有学过如何表达不确定,它就很难主动说自己不知道答案。
在回答问题时,模型是一句一句往下生成内容,它的目标是让表达自然连贯,而不是确认每句话都真实可靠。所以就容易出现一种情况:听起来合理,但实际上并不正确。
研究人员通常把这种错误分为两种情况。
第一种,是直接说错事实。例如模型在介绍《傲慢与偏见》时,把作者说成狄更斯。
第二种,是补充出一些看起来很合理,但现实中根本不存在的信息。例如斯坦福大学研究发现,在法律咨询测试中,一些模型居然编造出了超过120个不存在的判例,而且连日期和格式都像真的一样。
2026年的统计数据显示,目前主流模型的错误率大约在3%到20%之间,复杂任务更高。中文模型由于训练资料来源更复杂、结构更不稳定,错误率往往更明显。
原因主要来自三个方面。第一,训练材料本身质量参差不齐。互联网信息本来就存在大量矛盾、过时和错误内容。第二,模型生成答案时本身带有一定随机性,这让表达更自然,但也更容易出错。第三,在训练过程中,人类更喜欢奖励那些表达自信、流畅、友好的回答,而不是谨慎表达不确定性的回答。
更值得警惕的是,现在已经出现一种新的循环问题:AI生成的错误内容被重新上传互联网,然后又被新的模型继续学习。研究人员把这种现象形象地称为“模型开始学习自己的错误”。
随着时间推移,模型输出越来越像复制自己,说话越来越自信,但内容质量却可能越来越低。
当学生用它写论文,职场人用它写报告,普通人用它查资料时,看起来效率提高了,其实可能只是更快地吸收错误信息。

二、人类知识环境正在变得越来越混乱,而AI正在放大这种混乱
AI的错误并不是凭空产生的,它来自人类原本就存在的问题。
所谓人类知识环境,就是互联网、媒体、书籍以及社交平台长期积累的信息体系。但在今天,这个体系已经被大量低质量信息覆盖。
互联网内容发布门槛非常低,而传播速度却极快。点击率越高的内容越容易被推荐,而情绪强烈、观点极端甚至错误的信息往往更容易传播。
研究显示,在社交媒体上,错误信息传播速度往往是真实信息的六倍以上。
中文互联网还存在另外一个特点:部分信息被过滤,而推荐算法又不断强化已有观点,于是很多人只能看到自己原本就相信的内容。
大语言模型90%以上训练材料来自互联网,因此它学习到的并不是“知识本身”,而是“知识环境中的平均表达方式”。
如果错误信息出现频率更高,它就更容易被模型当作“正常观点”。
更严重的问题是,现在已经出现一种新的污染循环。人类用AI写文章、做视频、写评论,再上传互联网;然后新的模型又继续学习这些内容。研究人员发现,这会导致模型越来越像复制自己,而不是学习真实世界。
例如2025年曾发生真实案例:律师使用AI准备庭审材料,结果引用了不存在的判例。类似事件已经在教育、医疗和金融领域不断出现。
当人们越来越依赖AI筛选信息时,人类原本就混乱的知识环境就变成了我们的认知基础。
而最危险的一步,就是人们开始不再主动查证信息来源。
三、依赖AI正在改变人的思考方式
心理学研究早就发现,人类一旦长期依赖工具,就容易把思考任务交给工具完成。例如GPS普及之后,人们的空间记忆能力下降;计算器普及之后,人们的心算能力下降。现在,AI正在承担更高级的思考任务:整理资料、分析问题甚至做判断。
研究发现,使用AI越频繁的人,批判性思维能力往往越弱。MIT实验甚至发现,用AI写论文的人,大脑负责判断和规划的区域活动明显减少,同时记忆能力和原创能力也下降。
机制其实很简单。当AI直接给出答案时,人就跳过理解过程。当AI表达得很自信时,人更容易相信它。当使用频率越来越高时,人就越来越依赖它。
最后形成一个循环:越依赖,越不会思考;越不会思考,就越依赖。
这种变化不仅发生在个人层面,也正在影响整个社会。学生写作能力下降,职场报告越来越相似,创新能力越来越弱。研究人员已经提出警告:这已经不只是工具辅助,而是思考能力正在被慢慢替代。
勒庞曾经说,人进入群体之后会逐渐失去独立判断能力。而今天,AI正在让这种变化提前发生。
四、数字时代的乌合之众正在形成
勒庞在《乌合之众》中指出,当人处在群体环境中时,理性容易被情绪替代。今天,AI和社交媒体正在放大这种变化。AI可以提供统一表达方式,把错误包装成事实,然后通过算法迅速传播。于是,人类原本就存在的错误信息,加上AI流畅表达,就可能形成一种新的集体幻觉。
近几年已经出现多起典型案例:错误医疗建议、股市误导信息、历史错误解释,都曾迅速形成所谓“共识”。当个体不再主动思考时,群体就变得非常容易被情绪带动。
更深层的问题是,人们并不是被强迫接受AI,而是因为方便而主动依赖AI。最后的结果是社会观点越来越相似,原创能力下降,更容易被引导。
掌握数据和模型的人,只需要微小调整训练方式,就可能影响公众判断方向。
勒庞所说的“群体灵魂”,在今天已经变成算法塑造的信息环境。
社会后果可能包括:创新能力下降;公共判断能力下降;心理压力增加;社会面对危机时判断能力下降。
我们正在逐渐变成新的乌合之众:不是街头群众,而是屏幕前的数字群体。
面对这场前所未有的变化,我们是觉醒还是沉沦?
AI胡编乱造、人类混乱知识环境以及思考外包三者叠加,正在塑造一个被技术引导的时代。
尤其是在中文模型领域,一些模型已经表现出明显的错误生成倾向,但仍被很多人当成可靠工具,这本身就是一个值得警惕的现象。
我们不是变笨,而是在被技术慢慢引导向浅层思考和从众判断。
真正的出路,是把AI当作工具,而不是答案本身。理解大语言模型的局限,减少对其结论的直接依赖,是建立独立认知能力的重要一步。
否则,当我们越来越依赖AI,我们就越来越接近勒庞描述的那种状态:表面理性,但缺乏独立判断能力。
独立思考,是人类最后的防线。失去它,我们就可能成为AI时代真正的乌合之众。







