我觉得狂吹sora的人要回答几个问题

【本文由“甲午”推荐,来自《周鸿祎对中美AI差距的判断,大家怎么看?》评论区,标题为小编添加】

sora的底层模型还是Transformer,就是Google那篇attention is all you need那篇文章。

但问题和所有大模型的问题一样,能产生幻觉,失真等问题。说是学习到物理定律,那就太扯淡了。能学到并抓住现象肯定是可以的,学会定律是不可能的。

我觉得狂吹sora的人要回答几个问题:

1. 算力无限大是否意味着智能的无限大?

2. transformer的实质到底是经验生成还是创意生成?

3. 这类大模型,可以从哪些方面进一步解放生产力?

差距是有的,但万法未必唯一。也不是啥动不动未来十年就完蛋了之流。

问我底气和理由在哪,一是丑国和他的朋友们缺少产业相关的数据;二是AI早就被用于俄乌了,打成啥样大家心里有数;三是虽然丑国川普已经意识到了这依旧是个物理的世界,但华尔街的金融天才们依旧并不这样认为。

站务

全部专栏