seedance2.0是又一个deepseek时刻

自从AIGC浪潮开始以来,AI生成视频始终是一个热门方向。自从GPT的sora惊鸿一瞥之后,等到实际上线了大家发现这玩意也没那么好。哪怕迭代至今依然有着一致性差、不遵守人体或者物理规律等。而最关键的是,视频时间一长内容就很不连贯,多段生成的话一致性又很差,这导致AI视频只能是个玩具。除此之外先前的AI视频需要写非常详细的提示词,包括场景、运镜、分镜等,直接导致AI视频的门槛并不低。

然而字节的seedance2.0就不一样了,在看冯骥感慨seedance2.0的强大之后,我也去尝试了下。一开始使用我航展拍摄的飞机为素材让它生成视频,发现扔下来的炸弹是反的。但当我拿动漫素材来生成视频后,这seedance2.0的效果真把我震撼了,直接上了一个基础档的年费会员。

500

当之无愧的最强AI视频工具

先给大家看看给seedance2.0提供的素材。非常简单,就两张动漫人物的图片,要求让他们对打。而且在动画里和电影里,这两人没有以这样的服装交战过,没有现成素材。

500

500

而指令也非常简单,没有分镜没有脚本,只有一句话:俩人交战,丰富打斗细节,中心旋转运镜。

那效果如何呢?且看VCR

除了红A的干将莫邪双刀有些不对劲外(参考图是弓),其他的完全就是原作水准了。自动脚本,自动分镜,只需要一段简单的提示词和参考图,一切全部自动完成,可以说这就是AI视频的deepseek时刻。

我拿去年拍的全家福生成了个动画短片

用珠海航展上的SU57照片生成了一段

更为重要的是,当年deepseek比起国外顶尖模型还是有些差距,deepseek是胜在资源消耗少、效率高、容易普及。但seedance2.0是全方位的碾压了sora2.0以及其他的AI视频模型。也因此导致seedance2.0现在热度非常高,动不动就是几万个任务在排队要等几小时。

500

等了一个小时后,排队依然需要两小时

要说这玩意的意义,有几个方面。

对于游戏厂商(尤其是二次元手游)来说,以前一秒几千的动画可以直接用seedance来解决了,成本大幅下降的同时效率大幅上升。而对于短剧拍摄来说,AI短剧的效果和观看体验能大幅增强,甚至一些真人短剧也能用这个来低成本增加特效。而如果再深入些,那这玩意简直是认知作战的极佳工具,视频几乎就是可以以假乱真看不出破绽。也因此seedance2.0目前禁止任何真人素材视频的生成,就是为了避免这一情况发生。但如果它诞生在美国呢?这后果不敢想

我们应该庆幸seedance2.0诞生在中国,庆幸科技掌握在文明手中。

站务

全部专栏