你别说,虽然细节上还有点欠缺,但Deep seek已经算是个成熟的中国键政达人了

用Deep seek写了一篇《过美论》……

你别说,虽然文字细节上还点欠缺,但这个思维方式和逻辑闭环能力,就已经是一个成熟的中国键政达人的水平了,甚至就连三观也没有太大问题。

又让它模仿《贺新郎.读史》,写了一首抨击美国文化衰败的词……看完不得不承认,确实有那么点味道,它真有点懂中国传统诗文中的韵律和“含蓄”,表达的东西也算有点内涵。

这玩意儿还真不完全是“车轱辘话”、“赛博老胡”,其中有很多内容是穿透了“信息茧房”而得到的事实,有一些“辩论技巧”,是中文互联网特有的手法……这说明,在这个方面,还是Deep seek更懂中国人。

你让Chat GPT编车轱辘废话、一本正经讲假故事可以,但想让它有逻辑、有观点……非常难,中文写作方面更是灾难。

“语言大模型”这玩意儿,你玩得越多,就会越觉得,openAI那条路是条死路,chatGPT和SORA消耗了巨量的算力和资源,最终拿出来的东西也不过就是些废话生成器、漏洞百出的假视频,效率上还不如国产的Deepseek,DeepSeek的训练成本仅558万美元,训练时长仅两个月,远低于GPT逾1亿美元的成本及约三个月的训练时长。DeepSeek在训练过程中仅使用2048个低端芯片,而GPT用了上万片英伟达高端芯片……结果双方表现大家都看得到。

Deepseek已经开源,大家都能用,在中文方面体验更好,而GPT-5迟迟未能发布,sora的文生视频能力更是被可灵吊打……一来说明openai的算法根本就是个老掉牙的算法,二来说明他们“投喂”的语料也不行,用垃圾数据,只能模拟出更垃圾的废话生成器。

随着国产各种“大模型”成熟,估计人工智能这个赛道……马上就要被骂成“落后产业”了。

500

500

500

500

站务

全部专栏