智能体时代,还得看豆包大模型
技术迭代与商业创新共振
撰文/ 陈邓新
编辑/ 李 季
排版/ Annalee
火山引擎,又有大动作了。
2025年6月11日,火山引擎Force原动力大会发布豆包大模型1.6、视频生成模型Seedance 1.0 pro等重磅新模型,以及迭代了一站式AI云原生全栈服务。
对此,字节跳动CEO梁汝波表示:“做好火山引擎对字节跳动成为一家优秀的科技公司、保持技术竞争力很重要。未来,字节跳动会坚定长期投入,追求智能突破,服务产业应用。通过火山引擎,持续把新模型、新技术开放给企业客户。”
这意味着,火山引擎成为字节跳动AI的关键抓手。
眼下,智能体成为AI落地的最短路径,火山引擎凭借“性能更强、成本更低、配套更全”的打法,进一步助力企业发力智能体。
毋庸置疑,火山引擎对企业更友好。
性能更强,跻身国际第一梯队
大模型落地,进入智能体时刻。
火山引擎总裁谭待表示:“如果我们把时间拉长,把技术栈展开,我们实际正处于PC到移动到AI三个时代的变化之中。在这三个时代里,技术主体在发生变化,PC时代的主体是Web,移动时代是APP,AI时代是Agent。”
Agent就是智能体,AI应用的最主流形态。
通俗易懂地说,当AI赋能千行百业成为共识,企业拥抱大模型不再是可选项而是必选项,智能体凭借低门槛、易上手的优势站上“风口”。
需要注意的是,智能体能不能打,与其底座大模型的性能息息相关。
巧的是,豆包大模型虽然下场稍迟,却上演了一场后发先至的好戏,成为大模型赛道无可争议的最大“黑马”。
截至2025年5月底,火山引擎tokens日均调用量已经达到16.4万亿,较2024年5月发布时增长了137倍。
更为重要的是,豆包大模型1.6系列登场,在GPQA Diamond、AIME25、MultiChallenge上等众多权威测评集上得分均属于国际第一梯队,为企业发力智能体提供多样化选择。
其中,豆包1.6为All-in-One综合模型,是国内首个支持256K上下文的思考模型,具备自适应思考的能力,可根据提示词难度自动决定是否开启深度思考,兼顾提升效果与tokens消耗大幅减少的需求。
而豆包1.6—thinking为深度思考强化版,在代码、数学、逻辑推理等基础能力上进一步提升,支持构建复杂智能体;豆包1.6—flash则为极速版,延迟极低、TOPT 仅需10ms,适用于智能客服、语音助手等实时交互场景。
事实上,豆包的硬实力,在高考数学成绩上表现得淋漓尽致。
做2025高考数学真题,豆包大模型拿下144分,位列国内模型首位,且海淀区高考模拟卷文理科成绩全部突破700分,理科成绩更是比2024年提升了154分,模型进步的速度令人惊喜。
一名互联网观察人士告诉锌刻度:“大模型是一个重资产赛道,考验企业在资金、生态、技术、人才等方面的底蕴,Scaling Law之下强者恒强。”
成本更低,打破传统定价惯例
性能更强之外,成本更低是智能体的另外一个重要诉求。
当下,智能体在手机、汽车、教育、金融等领域重塑生产力与生产关系,随之而来的则是成本高企的挑战。
譬如,斯坦福2023年设计的虚拟世界西部小镇,拥有25个可以恋爱交友的智能体,单个智能体的成本高达每小时20美元。
与之对应的是,智能体市场潜力无限。
《中国AI Agent应用市场概览(2025Q1)》的数据显示,2024年中国AI智能体市场规模突破50亿元大关,未来四年将以超过60%的年复合增长率迅猛增长。
此背景下,企业亟须极具竞争力的低成本方案。
火山引擎精准地抓住痛点,在性能与成本之间寻求最佳平衡点,打破行业传统的定价惯例,赋能智能体降本增效。
一方面,抹去功能溢价。
调用深度思考或多模态能力,需要额外付费,早已成为行业的惯例,豆包大模型1.6则一视同仁,原生支持深度思考和多模态,企业无需为token额外买单。
另外一方面,分区定价。
以往,为了省心省力,token的输入定价并不考虑长度,行业采取固定价格,但是模型的成本存在明显的“递增效应”,即输入上下文长度的增加,模型处理token的难度与成本也随之增加。
简而言之,存在分摊成本的现象。
“当前,超过80%的企业调用请求集中在32K tokens以内,若能针对这一主流区间优化调度,可显著降低整体成本。”谭待如是说。
于是乎,豆包大模型1.6精准匹配企业需求分布,将定价区间按照输入长度分为0—32K、32K—128K和128K—256K,价格随着输入长度的增长而增加。
以企业调用量最大的0—32K为例,豆包大模型1.6的输入价格为0.8元/百万tokens、输出价格为8元/百万tokens,整体成本只有豆包1.5深度思考模型或DeepSeek R1的三分之一,性价比拉满。
此外,Seedance 1.0 pro模型价格为0.015元/千tokens,每生成一条5秒的1080P视频只需3.67元,创下行业最低价。
如此一来,火山引擎“好的模型就是要让每一家企业都用得起”的理念得以延续,凭借“高质低价”的打法进一步占领企业的心智。
《中国公有云大模型服务市场格局分析,2025年一季度》的数据显示,2024年中国公有云大模型调用总量达到114.2万亿tokens,其中火山引擎占据46.4%的市场份额,位列第一,调用量几乎等于第二名与第三名之和。
不难看出,通过抹去功能溢价与分区定价,火山引擎走上一条技术迭代与商业创新共振的降本之路,从而推动行业良性竞争。
对此,谭待曾有言:“对于企业级市场来说,商业模式是建立在可持续发展的基础上,任何商品必须是盈利的,不能靠补贴来降价。如果降价是亏损的,规模越大亏得越多,这就不是合理的商业模式。”
配套更全,企业实现开发平权
更低成本之外,火山引擎配套更全也尤为值得一提。
要孵化成千上万的智能体,解决各式各样实际场景问题,智能体的开发范式势必焕新,调用中心从传统的程序员转移到大模型。
这要求,配套的开发工具不断降低开发难度,实现开发平权。
火山引擎智能算法负责人吴迪表示:“要构建高生产力的Agent,既要用好AI,整合高质量的应用;又要做好AI,关注底层技术本身的优化和创新。”
鉴于此,火山引擎提供了一站式解决方案,帮助企业高效构建智能体。
即升级发布了PromptPilot、MCP Servers、TRAE、扣子开发平台等产品,以及多款开源项目,打造了覆盖大模型开发全链路的工具矩阵。
譬如,PromptPilot肩负“翻译”的重任,帮助开发者将模糊的诉求变为具象化的目标,即便开发者不具备专业的大模型知识,也不影响最终的实际效果,只要开发者对行业领域、应用场景有一定知识储备和判断力即可。
换而言之,通过需求理解、问题生成、输出三个环节的优化,可以提升Prompt调试效率300%,大幅节约智能体的开发时间。
再譬如,火山引擎MCP Server与TRAE、方舟体验中心、扣子等平台打通,深度集成云服务能力,从而解决了智能体从概念到落地的链路断层问题。
这么一来,开发者可通过MCP 控制火山引擎的云服务组件,便捷地完成计算、网络、存储等环境部署,更快地把一个创意变成一个成熟的产品。
在此基础之上,火山引擎提供了AI云原生全栈服务,打通了开发、数据、安全等环节,帮助企业快捷落地智能体。
AgentKit、TrainingKit和ServingKit,助力企业做好智能体服务、模型训练和模型推理;多模态数据湖、Data Agent,助力企业构建智能化、高效化、低成本的智能体数据体系;AICC 密态计算、大模型应用防火墙,助力企业构筑网络安全防线,抵御针对智能体的恶意攻击……
以上可见,火山引擎通过全链路开发、高性价比基础设施、安全可靠服务等优势,成为企业发力智能体的不二选择。
总而言之,“性能更强、成本更低、配套更全”之下,火山引擎降低了企业入局智能体的门槛,接下来将推动智能体大规模落地。
那么,火山引擎在AI云市场的领先地位,更稳了。