WAIC|李彦宏再提开源模型并不合适大多应用场景,如何看待大模型开闭源之争?

​百度创始人兼CEO李彦宏在WAIC产业发展主论坛上的演讲节选:

2023年国内出现了百模大战,造成了社会资源的巨大浪费,尤其是算力的浪费。但是也使得我们追赶世界上最先进的基础模型的能力得到了建立。

去年10月,我宣布文心4.0发布的时候说,文心4.0的能力跟GPT4相比毫不逊色,好多的同行还不以为然,今天大家可以看到,国内已经有多款闭源模型声称它们已经追平或者是超越了GPT4的水平。

注意,我们说的是闭源大模型,不是开源大模型,这也是今年以来争议比较多的一个话题。有些外行甚至混淆了模型开源和代码开源这两个概念。

所谓模型开源,是拿到的只是一大堆参数,你还是要去做SFT(Supervised Fine-Tuning,监督微调),还是要去做安全对齐,你不知道这些参数是怎么来的,你是无法做到众人拾柴火焰高的。即使你拿到对应的源代码,你也不知道他用了多少数据,用了什么比例的数据去训练这些参数。所以拿到这些东西,并不能够让你站在巨人的肩膀上去迭代和开发。

所以,同样参数规模之下,闭源模型的能力就比开源模型要更好,而如果开源要想能力追平闭源,那么它就需要有更大的参数,这就意味着推理成本会更高,反应速度会更慢。

500

很多人拿开源模型来改款,以为这样可以更好的服务自己的个性化应用,殊不知,这样你就创造了一个孤本模型,既无法从基础模型持续升级当中获益,也没办法跟别人去共享算力。

当然,我也承认开源模型在某些场景下是有自身价值的。比如说一些学术研究,或者在教学领域,大家想要研究大模型的工作机制,形成理论,这个时候可能是有价值的,因为大家也经常听到,我们觉得大模型能力很强,但是不知道为什么能力强,因为背后没有理论来支持它,所以研究这个东西,用开源的我觉得没问题。

但是,大多数的应用场景,开源模型并不合适,当你处在一个激烈竞争的市场环境当中,你需要让自己的业务效率比同行更高,成本更低,这个时候商业化的闭源模型是最能打的。

当然,这些都不是最重要的,没有应用,光有基础模型,不管是开源还是闭源都一文不值。

所以,我从去年下半年开始讲,大家不要卷模型了,要去卷应用。但是我看到我们的媒体仍然把主要的关注点放在基础模型上,一天到晚就是跑分,刷榜,谁谁谁又超越GPT4了,openAI又出来sora了,又出来GPT4o了等等。今天这个震撼发布,明天那个史诗级更新,但是我要问,应用在哪里?谁从中获益了?

全部专栏