AI大模型也许正在泡沫化

7月3日,一则《演员王一博案,判了》的新闻发酵,文章内容提及,人工智能公司DeepSeek因内容审核疏漏,就关联不实信息向演员王一博道歉,还援引了刑事判决书。随后,《DeepSeek向王一博道歉》一度冲上热搜。

随着AI 通用语言大模型竞争的白热化,大家经常会因为模型提供了别显错误的输出而烦恼,这已经直击到AI的致命性弱点:它有很强的信息检索和组合能力,但是不具有理性判定信息真伪的能力,AI其实离智能还很远很远,人们对AI的发展目前还是太过乐观了。

现在的AI 系统其实并不复杂,它的学习过程就是不断从互联网抓取信息,然后进行存储待有人提出请求后,通过强大的运算能力在海量的信息中检索、归纳,然后把它自以为是的结果输出到请求者的终端。

但是,互联网上有很多假信息,现在有人编信息的能力相当专业,它与真正的论文表面没有区别,还引用了很多不存在的文章或者著作,就算是非该领域的专家都无法判断,更何况一台机器。如果机器无法判断真伪,肯定就无法给出正确的答案,这个道理还是容易理解的。

现在的AI 通用大模型都是在堆算力,而堆算力意味着更高的能耗和更高的成本,这是人工智能的的应有之义吗?是简单粗暴的暴力美学还是科学精神?大家应当有所判断。

在研发通用语言大模型的过程中,各国加起来可能已经投入了几千亿美元,但是结果仍然差强人意,倒是DS采用低成本优化算法的思路更符合AI 的发展方向。

据以上我们可以得出结论,在大模型能够理性判定网上信息真假之前,通用大模型只能是低标准的文字游戏,距离智能和科学还有很大的距离。

与此相反,一些局限有特定领域的人工智能反而获得了更大的成就,因为它只需要按照特定的程序,在高端感知系统下按预定的程序完成工作就可以了,比如把快递从窗口送给用户、在生产线上用机器替代人、在码头实现装卸转运和接一定的要求分类堆放……

对行业前景过于乐观的结果就是导致泡沫,我觉得今天大家对AI的热情一如十七世纪的郁金香、上世纪八十年代后期日本的房产、世纪之初的互联网……

今天美国股市中AI概念股仅谷歌、微软、英伟达、‌ OpenAI加起来已经超过了10万亿美元,但是它给人类创造的价值却超不过1000亿美元,它让政客有了政绩、金融投资赚取到暴利,说穿了更像是一场金融诈骗。现有的技术还没有办法让通用大模型完成质的跃升

站务

全部专栏