大模型,在内卷中寻找出口

500

2024年,大模型进展不断。从年初的Sora到最新的o3,更新更好的模型不断被推出,“内卷”到底有没有发生?

我们要先确定“内卷”的定义,指某一类产业模式,发展到一种确定形式后,陷入“高水平均衡陷阱”,出现“没有发展的增长”,这种局面一直无法被打破,那就会走向停滞和危机。

500

而这一年,大模型的scaling law法则越来越受到挑战,训练模型的算力集群已经从万卡发展到十万卡,扩大了十倍,而模型的智商并没有以这个倍率提高。应用端也没有出现killer app(杀手级应用),模型厂商开始了流血换量的价格战……这些特征与“内卷”的定义是契合的。

那么接下来的问题就是,内卷化让大模型陷入危机了吗?以及脱离内卷的出口,究竟在哪里?

500

在内卷化周期中,一个产业是很难保持活力和创新动力的。大模型内卷化的加剧,也让行业进入调整期。

首先可以感受到的,就是公众和投资者的失望。2023年,人们都用“AI一天,人间一年”来形容AI的发展,美股 “七姐妹”(苹果、微软、谷歌母公司alphabet、亚马逊、英伟达、特斯拉、Meta)更是在这一股热潮下屡创新高。而近来我们明显看到,这股热情已经回落。

OpenAI的股东、接入模型API的服务商企业,都公开抱怨过,AI能力没有太大进展了。刚刚结束的为期12天的OpenAI 发布会,也大多是对已有模型、产品或技术路线的增强,符合预期,但缺乏亮点,无法为AGI提供强支撑。OpenAI前首席科学家Ilya在NeurIPS 2024大会上提出“预训练将会终结(Pre-training as we know it will end)”,更是给大众浇了一瓢凉水。

来自产学各界的质疑态度是一个比较危险的信号,因为历史上的AI寒冬都源于信心缺失和投资退潮。

另一个危机信号,是产品同质化竞争和淘汰赛加剧。

基础模型的竞赛,也在2024变得格外激烈,一是模型数量过密,且性能表现逐渐趋同,尤其是开源模型与闭源模型的差距在快速缩小,进入同质化竞争。

500

二是同一厂商的模型家族,也在加速淘汰,比如GPT-3.5-Turbo就退役了,由GPT-4o mini取代,国内模厂的模型也基本如此,用户都愿意用加量不加价、物美价更廉的新模型,旧模型没人愿意用了。GPT-4o Mini发布后,API 的使用量翻了一番。

激烈的同质化竞争,让模厂不敢减少训练新模型的投入,又为了应对价格战而不得不下调token价格,结果就是经济负担越来越重。可以说,目前大模型无论是外部的宏观形势,还是企业的微观经营状态,都没有2023年那么积极了。

500

模型层面,底层技术路线、数据瓶颈等无法在短期内得到有效突破,那么从商业层面寻找出路,就成为必然。

2024年,我们能看到大模型内卷,给商业模式带来的诸多挑战。

一是云+API模式,流血降价、以价换量并不是最优解。

API调用量付费,是大模型的主要变现模式之一,通过token降价来赢得更多大模型业务上云,获得长期收益,是云厂商价格战的基本逻辑。但目前来看,以价换量似乎并不奏效。

500

究其原因,是因为B端客户更关注模厂的长期性、模型质量,质在价先,可靠优先。所以,我们看到,一部分以价换量成功的云厂商,本身就具有比较强的模型能力,比如文心一言两款主力模型免费之后,百度智能云的日调用量一个月翻了十倍。基于豆包大模型家族的火山云,token调用量也大幅上升,甚至有客户的tokens调用量增长了5000倍。这说明新用户会倾向于头部模型,而老用户要么不考虑替换现有模型,要么会把鸡蛋放在多个头部厂商的篮子里,趁降价接入更多模型,最终留下性价比高的。而不打价格战的云厂商,比如华为云将盘古大模型作为“尖刀产品”,也在B端市场取得了不错的成绩,与行业伙伴协同打造的煤炭大模型、医药大模型及数智化解决方案,今年在垂直领域的多个企业内被复用。很多行业用户考虑华为云,就有企业抗风险能力强,能在基础模型坚持投入,业务稳健运营的预期考量。

500

上述企业说明,云+API模式成功的根本,是“质在价先”。

二是订阅制,由于大模型内卷化,导致用户粘性低、忠诚度不高,会员市场呈现出极高的分散性。

因为大模型的更新换代非常快,一方面新模型在质量和性价比上往往更好,“等等党”更愿意观望;另外很多旧模型会不再更新或退役,这就让会员更不愿意跟平台长期绑定。这就导致模厂为了不断吸引新用户,拉新营销活动难以停止,获客成本居高不下,而且影响用户体验,需要高频弹窗广告,打扰用户,开发出多个会员等级和收费权益套餐,增加了用户的决策疲劳。而好不容易拉来的新客户,往往使用一段时间之后就转向免费版本,或者更新更便宜的友商产品,长期续费率不高。

可以看到,大模型的内卷化,导致大多数模厂难以说服客户和开发者,与其建立长期信赖关系。这就给后续的商业变现与价值挖掘,造成了极大挑战。

500

告别内卷,就要向外寻找出路。数量多、同质化的大模型,形成了一个密度很高的堰塞湖。那么逃离内卷,就必须疏浚河道,缓解拥塞。所以,2025,将是大模型商业基础设施日趋完善的一年,通过更全面的“水利设施”,让大模型应用者和开发者们能够更方便地取用。

如何判断一个大模型是否“外向”?有以下几个衡量标准:

一是模型的开放度或者说兼容性。

如前所说,内卷化周期中,用户并不愿意将鸡蛋放在一个篮子里,或者跟某一个模厂进行长期绑定,这就需要模型具备很强的开放度和兼容性。比如腾讯混元大模型的免费资源包,同时支持hunyuan-pro、hunyuan-standard、hunyuan-turbo等多个模型共享,支撑第三方平台、ISV服务商为客户提供多种模型的灵活选择与切换、模型竞技场等,来满足最终客户对多元多模的需求。

500

二是更细致地开发工具。

将大模型技术转化为生产力,还需要加工工具、工作流等更细致的支持,比如此次OpenAI就为Sora打造了Remix、Blend和Loop三个专业工具,来支撑更好的视频生成,为此支付每月200美元的Pro用户也不少。国内,我们实测过的,字节跳动的扣子开发平台、百度文心智能体开发平台等的开发工具也已经很容易上手了。

500500

三是大模型应用从开发到商业化的“端到端”支持。

2024年并没有出现国民级的第三方AI应用。一方面是模型能力本身还需要提升,一些AI智能体平台充斥着大量低水平、易复制的个人智能体,对话体验、理解能力、多模态任务等的效果一般,没有太大商业价值;另一方面,是很多开发者不知道AI应用如何商业化,所以还没有投入太大精力去开发市场缺乏的产品,满足尚未解决的需求,这就需要平台加大对开发者的商业资源扶持。

归根结底,技术天花板短期内难以突破,大模型市场饱和与同质化竞争的局面就不会宣布解决。大模型要取得商业成功,前提是用户和开发者的业务能否成功,这是为什么完善的商业基础设施必不可少。

逃离内卷的堰塞湖,所有模厂2025年都必须回答的问题是:如果大模型是水和电,那么用户和开发者拧开开关,究竟能得到什么?

500

站务

全部专栏