有人说中文AI大模型极其愚蠢,他是无知偏见还是别有用心?
.
7 月 30 日的观察者网登了一篇奇文,标题就直白地说 “中文大模型极其愚蠢”,引起了笔者和不少网友的关注。作者自称是前波士顿咨询董事总经理、前 IBM 咨询全球合伙人,还搞了个 “企业知识开源计划”,这些花里胡哨的头衔到底有多少分量,因为这人没啥名气,笔者也犯不着浪费时间去细究。但他在文章里,就凭着一个漏洞百出的网络谣言,给整个中文 AI 领域扣上 “极其愚蠢”“没什么推理能力” 的帽子,甚至说现在的技术路线肯定走不通。这就让人忍不住想问:他说这些,到底是因为不懂技术产生的偏见,还是背后另有什么想法?这事值得好好说道说道,把道理掰扯清楚。
.
这篇文章最站不住脚的地方,就是把中文互联网上个别虚假信息的传播,当成了大家认知能力不行的证据。作者拿《特朗普爱上在白宫当保洁的我》这个谣言举例,说中文互联网上 “到处都是垃圾信息”“读者无脑翻”,并由此推导出中文大模型愚蠢、推理能力差的结论。这种说法根本经不起推敲:事实上,不管是哪种语言的互联网,都少不了谣言。英文网上,说 “5G 能传播新冠”“地球是平的” 这种荒唐言论,传播得也很广,难道就能说用英文网络的人都没脑子?作者把个别情况说成是普遍现象,说白了就是想当然,这种做法严重损害了文章的可信度,也反映出作者在认知和思维上的局限性。
.
更让人想问的是,这位作者到底了解多少 AI 技术?他写的这篇充满情绪化的文章,真实目的到底是什么?从他对大模型技术原理的理解来看,他根本没资格评判 AI 的发展。当前,无论是中文还是英文大模型,核心原理高度一致:通过学习海量文本材料总结规律,再基于概率生成内容。本质上,它们只是对已有信息进行重组,无法像人类那样主动开展逻辑推理或判断信息真伪。这种被称为人工智能 “幻觉” 的问题普遍存在,并非技术 “偷懒”,而是当前 AI 架构的共性缺陷。斯坦福大学监管评估和治理实验室等机构的研究人员在 2024 年初公布的成果显示:对 GPT 3.5、PaLM 2、Llama2 这三款顶尖语言模型提出 20 多万个问题后,发现其幻觉发生率高达 69% 到 88%。而早在 2023 年 5 月,微软、OpenAI 与斯坦福大学的研究人员就曾在《语言模型知道它们自己在胡诌吗?》一文中指出,最先进的几款语言模型向来以 “爱胡诌” 著称。既然作者明知这是所有大模型的共性问题,却偏偏只针对 “中文大模型” 大做文章,这种罔顾事实、刻意选择性论述的做法,用心不良,明眼人一望便知。
.
另外,作者对 AI 技术发展方向的判断也太短视了。他说 “大多数大语言模型公司最后都会破产”,却看不到这项技术正在深刻改变各行各业。智能客服让政务服务效率提升数倍,群众办事不用再跑断腿;AI 辅助诊断为基层医院赋能,偏远地区的患者也能享受到更精准的诊疗建议;内容生成工具解放了创作者的生产力,让创意得以更高效地落地。现在的技术路线可能不是最终形态,但它已经在方方面面改变着世界的运行方式。回顾历史,从蒸汽机到电力再到互联网,每一次重大技术变革起步时都不完美,都是在持续改进中逐渐成熟。作者却把还在探索的技术路线一棍子打死,还说 AI 只是在业务流程中 “插科打诨提供情绪价值”,这实在太小看 AI 了。AI 在数据分析、流程优化等领域的作用至关重要,它能在一瞬间完成人类难以企及的复杂计算,早已成为企业数字化转型的核心助力,为各行各业的效率提升和模式创新提供着强大动能。
.
作为一个过来人,我要教育教育这位作者,在 AI 发展越来越快的当下,理性看待技术上的差距,比故意制造对立要重要得多。中文大模型确实需要在逻辑推理、减少错误信息等方面继续努力,中文互联网也需要营造更健康的环境,但这些都应该成为前进的动力,而不是自我贬低的理由。真正的理性思考,不是盲目地吹嘘技术多厉害,也不是无脑的全盘否定,而是根据事实,看到差距并找到解决办法。毕竟,判断一项技术或者一种文化有没有价值,不是看它是不是完美无缺,而是看它有没有自我革新的勇气和不断进步的活力。中文 AI 的未来,不在那些悲观的预言里,而在每个理性对待、踏实做事的人手中。