AI的闭源与开源模式,对算力需求有着本质的差别

众所周知,中美在AI大模型的发展路径上,早早的就分道扬镳了。中国走开源大模型之路,美国则侧重于闭源大模型之路。两者截然不容。

但是,公众对于开源与闭源的本质区别,实际上可能并不真的了解。如果仅仅知道,开源是免费;闭源是收费;那么对两者的差别,实际上几乎没什么了解。

那么,开源与闭源,最大的区别是什么呢?

有个比较接近的比方,可以将两者的区别简化说明:

开源是汽车;闭源是火车。

抛开收费和免费之说,开源与闭源最大的区别,就类似于汽车与火车的差别。

先说闭源模型。闭源就像是火车,体积大,运力足,如果你想使用它,唯一的途径就是买张票上车(收费),或者是花钱租用。火车可以快速准确地为你服务,而且运输能力很强大,哪怕你是个煤老板,成百上千吨的煤也能运走。但是,火车也有个缺点,那就是没法人人拥有。它只能在固定线路上运行,无法照顾到很多千差万别的客户需要。

这就是闭源大模型的特点。算力强大,性能优异,可以同时满足成千上万人的需要。但是,它的缺点也很明显。它不属于你,你只能花钱租用;它也不会为你做出针对性的改进。对于每一个客户而言,开源大模型永远只是你前进道路上的一个外来的工具,你与它之间,就是甲方乙方关系。

再说开源大模型。开源就类似于汽车。汽车最大的优点是什么?它可以属于你个人。它可以开到你家门口。你可以根据自己的财力、需求和审美,购买并改装自己的汽车。汽车的运力无法与火车相比,但火车不能开到家门口,汽车可以。火车无法变成你自己的,汽车可以。火车不能为你保守任何秘密,汽车可以。

这些汽车的优点,也是开源大模型的优点。这是除了免费之外,闭源大模型的真正有点。免费反而不是。

与闭源相比,开源大模型最终的用途,并不是为散户提供免费的在线服务……完全不是。开源大模型的实际用途,是让客户在本地搭建一套完整的、私有的,属于客户自己的定制化大模型。这个过程,就相当于你把一辆汽车买回家。这才是开源大模型的绝对优势所在。

为什么要搭建自己的私有大模型?因为保密和调优的需要。

想象一下,你在一个生物医药的研发团队里,你们正在研发一个很有前途的癌症新药;你们已经确定了一个靶点范围,正在筛选大量的结合蛋白。这个过程繁琐且艰辛,所以你们决定引入AI大模型,帮助你们从浩如烟海的蛋白质选型中进行初选,提高研发效率。这时,你会选择闭源大模型还是开源大模型?

百分之百是开源大模型。因为如果你用openAI这类闭源模型,会面临两个致命的风险:其一,是你们的研究成果,对于闭源大模型而言,完全是透明的;你根本不知道openAI的那一端会怎样处置你们的研发数据。很可能你们的研究成果,就被openAI进行了信息分类和摘要,提交给后台的数据处理中心去分析识别……如果它发现了信息的价值,呵呵,你们的研究成果就可能被转卖给需要的人。你无法确定是不是会发生这样的事,但是从风险规避的角度来考虑,你一旦使用闭源大模型,你就是在他们面前裸奔。其次,闭源大模型不一定适合你的研究项目,因为你无法训练和调整它,它本来啥样,就是啥样,你可以用,用的不顺手,你也没辙。这里的风险就是,你可能花了大量金钱和时间,最后发现它不适合干你们的项目。这个坑,没人替你填。

但是换到开源大模型,这种风险就没了。你可以采购硬件,在你的实验室里搭建自己的开源大模型,比如DeepSeek或者Qwen, 根据自己的财力,搭建不同参数配置的本地版本,如果很有钱,你甚至可以搭建一套全参数的DeepSeek,完全可以。但如果经费紧张,你也可以降低参数,够用即可。更关键的是,本地模型可以自己调优,自己训练,也就是让它适应你的数据类型、加工规则、推理方式等等,经过本地化的调优之后,这个模型就是你自己定制的了,它可能会用着更趁手更高效。如果你不满意,你可以反复重复这个过程,直到你满意为止。

最终,你得到的本地私有化的开源大模型,具有百分之百的安全性和隐私性,还有最适合你的针对性。这就是开源大模型落地使用的最终归宿。它可以进入任何需要的企业和单位,与任何需要的工作相结合,变成工业、社会以及经济运行里的AI“汽车”,去满足千差万别的不同需要。

明白了开源大模型的主要使用方式,再让我们回到关于算力争夺的那个话题。

闭源大模型如果要发展,就必须走堆算力的路径,不然它就失去进化能力了。

但是,开源大模型不必如此。DeepSeek并不需要玩命堆算力,因为DeepSeek根本不专注于为所有客户提供在线服务(它的官网就是个摆设),这就不是它最终的发展模式。所以,DeepSeek会在训练过程中适当的堆算力,但到了推理应用时,就放弃堆算力了。因为DeepSeek是汽车模式,它在研发新车时会大量投入资金,但车研发结束了,开始量产了,还堆资金干嘛呢?用户自己拿走代码,回家自己堆自己的算力去即可。

这就是中国AI与美国AI在算力需求的背后,所存在的巨大差异。OpenAI必须依靠海量的投入,把自己堆成一个算力巨无霸,这样才能与其它闭源模型,甚至是其它开源模型表现出明显可见的评测优势,虽然这些优势挺有限,但它不得不维持这个优势。完全没办法。你想象一下,如果火车在运力方面还输给了汽车,那么火车还怎么生存呢?

所以,如果我们拉长周期去预测,美国的AI模式,会在堆算力这件事上,很快就难以为继,堆不下去的。因为太烧钱了,没有可持续性。

其实美国人是在赌一件事,就是他们觉得,只要一直堆下去,算力一直增加,说不定就会在某个时刻,机器AI出现觉醒,变成一个无所不知的超级智能体。

这是可能的吧?也许吧。但这个可能性,也真的很微小很微小。

站务

全部专栏