为千行万业开算力通途,为什么是百舸?

500

2025,各行各业基于DeepSeek探索各自领域的落地方式,由此开启了AI智能化加速的新航程。然而,大模型应用落地是一个系统工程,技术与资源门槛高,还存在大量未知挑战。

面对不确定的海浪,具备全栈能力的云基础设施,成为企业追逐AI的可靠巨轮。

大模型对云计算基础设施的需求,与传统云计算存在显著差异。比如大模型训练需要万卡级GPU集群支持,且对多芯混合训练效能和稳定性要求极高。传统以CPU为中心的云计算中心,需转向以GPU为核心的智能算力架构,并实现算力资源的极致调度。

而百度智能云与其他云厂商最大的区别,就是一直是百度AI技术和业务的坚定支持者,常年在AI基础设施上进行投入。上云用大模型的需求爆发之后,百度智能云迅速跻身中国大模型平台第一,领航AI云市场。

这一成绩的背后,离不开百度所有核心业务的算力底座——百舸异构计算平台。借助百舸的大规模推理加速能力,以及自研昆仑芯P800芯片,百度智能云实现了算力性能与成本的双重突破。

500

就在昨天,4月25日召开的Create 2025 百度AI开发者大会上,百度正式点亮了昆仑芯P800的三万卡集群,发布昆仑芯超节点。仅有高性能芯片和大规模集群是不够的,为了稳定、高效地释放算力价值,百度智能云也全面升级百舸推理加速能力。

500

云计算的大船,正乘AI之风,扬时代之帆,迎来前所未有的增长机遇。这时候,有必要深入百舸内部,去窥探一下百度智能云这艘AI巨轮的加速密码。

500

为什么破解算力短缺和计算成本高的问题,仅靠单体硬件和集群还不够,需要平台级的优化助力?

纵观2025年的大模型算力格局,前有DS技术突破,算力需求激增;后有海外进口芯片供应持续不稳定,算力焦虑始终存在。多元异构芯片的混合训练,成为国内缓解算力荒的一个选择。但异构芯片之间的协议生态不同,合池训练难度大,对云基础设施提出了挑战。

首先,集群规模更大,推理场景下快速定位故障并恢复,十分考验超大规模集群的稳定性。

此外,异构芯片多样,国内超万卡集群多采用混合芯片方案,但不同架构合池训练会出现性能损失。《AIDC白皮书》显示,业界顶尖的千卡智算集群,其算力利用率不超过60%,万卡集群不超过55%。提高国产集群的资源利用率和算效,避免资源浪费,刻不容缓。

500

DeepSeek之后,尽快用上DS等大模型,成为企业的当务之急,云基础设施承载的AI任务大幅上量。一方面考验云基础设施的敏捷性,是否支持在云上快速构建和进行模型迭代,无缝集成AI开源生态,也需要调优技术的加持,从而带来极致的推理性能优化,降低推理成本。

可以说,AI大模型深入千行万业,上云深度用AI的当下需求,进一步强化了多元异构计算平台的重要性和必要性。沧海横流处,百度智能云和百舸,已经做好了准备。

500

一场以AI为核心、多元异构算力为底座的云技术竞赛,就此拉开帷幕。百度智能云率先点亮了昆仑芯万卡集群,今年Create大会上,又正式宣布点亮3万卡集群。那么,百度是如何解决多芯混训问题的?百舸平台,是核心驱动。

百舸作为超大规模GPU算力平台,可以对算力集群的AI-IaaS基础资源进行调度,打造高性能AI基础设施,支持高达10万卡大规模集群,提供稳定、极速、高效的算力服务,满足企业的训练、精调、推理的全流程需求。

如果把AI云基础设施看作一艘航船,那么百舸的存在,可以发挥几个作用:

作用一,支撑更大的算力船身。百舸平台不仅有更强的单节点性能,同时通过昆仑芯超节点(高密整机柜),把卡放在同一个机柜里,用更快的机内通信替代机间通信,降低机柜之间通信的复杂性、高延迟和带宽成本,从而支持超大规模集群建设。基于百舸,AI基础设施可以纳管的算力资源规模大,提供更加充沛、稳定的智能算力。

500

作用二,提供稳定的AI体验。当计算机群出现故障,每一次重写checkpoint,都会给大模型的开发和企业平添波折。百舸平台通过智能调度与冗余设计,实现99.5%有效训练时长,以分钟级故障恢复能力,减少中断,确保AI任务连续稳定运行。

作用三,为AI任务加速的高效动能。类DeepSeek的长思维链推理模型,增加了思考环节,需要输出的token更多,如果吞吐速度不够快,用户就需要长时间等待,AI体验很差。百舸的大规模分布式PD分离推理系统,可根据不同的模型特点,选择最优的并行策略,做到token级别的PD负载均衡,同时结合算子融合、all-to-all 通信算子优化、异步KV传输、双流编排等技术进一步提升GPU利用率,推理成本节省95%,总吞吐提升20倍。同时,百舸还支持私有化部署。也就是说,无论是云上调用推理模型,还是本地部署,百舸都可以保障高效实时的体验。

可以说,在百舸平台的支撑下,百度得以打造坚固的异构算力底座,拥有了在大模型时代远航的稳定推进力,在AI云服务的竞争中处于领先身位。

500

开年以来,AI云市场进入后DeepSeek时代,头部云服务商都在积极升级AI基础设施及服务。百度能否长期保持AI云的优势,还取决于AI底座与产业的融合深度。

说到底,只有让企业真正用上AI,用好AI,AI基础设施及AI云服务才能焕发出最宽广的价值。

如何帮助千行百业高效地接入AI算力与模型,打造自己的AI应用?百度智能云AI计算部负责人、百度杰出架构师王雁鹏认为,支撑AI应用的创新大爆发,基础设施必须让算力不再成为瓶颈,让算力唾手可得。全新升级的百舸,就是百度智能云交出的一份答卷,可以用三个字来概括:

全。王雁鹏提到,面对AI模型的爆发,敏捷的基础设施能够支持各种芯片、模型、框架以及工具链。全新升级的百度百舸算力平台,不仅提供高性能的计算、存储、网络的基础资源产品,也提供了一键式全站AI工程开发平台以及各类工具集,能够一键建设资源池,一键部署开发环境,一键部署模型,把GPU的利用率发挥到极致,为各类开源模型带来显著的加速效果。

500

作为企业级的一站式AI工程平台,百舸覆盖AI大模型的全周期、全流程,可以缩短AI开发周期,对于金融、互联网等追求效率、时间敏感、竞争激烈的行业来说,意义重大。比如百度智能云携手招行基于昆仑芯国产算力,接入开源模型,帮助招行快速提升了智能客服、多模态数据分析等场景的应用效能。

省。领先的AI工程硬核加速能力,也可以让各领域开源模型训推成本更低、周期更短、故障更少,能够同时支持成百上千的各种任务不中断,大幅节省了企业的时间和资源成本。北京人形机器人创新中心的通用具身智能平台,就依托百度百舸AI异构计算平台和稳定可靠的AI算力基础设施,进行模型训练,为人形机器人打造更聪明的“大脑”。

500

强。王雁鹏介绍到,把训推系统的能力做到极致,充分压榨出硬件的算力,是百舸一直以来追求的目标。百舸的原生AI-IaaS 对接和管理能力,可以发挥出基础设施最大效能,性能更强。

最近,百舸针对多模态模型以及智驾模型做了深度优化,在多模态模型上取得了30%,在智驾模型上取得了150%以上的加速效果,助力更多行业、汽车企业等智能化降本增效。比如教育机构好未来,就借助百舸的队列超发能力,充分利用集群闲时资源,整体资源利用率提升10%以上。

当一个企业打算落地应用大模型,百舸是一条更短、更省、更快的智能化航路。

500

在未知的海域中探索,望向技术远方的星辰,才能走在正确的方向上。十多年来,AI指引着百度的航向,从未偏离航道,才能成为大模型时代AI与云的领航人。

云基础设施+AI技术的优势,让百度智能云在大模型时代快速增长,成为大量政企上云赋智的首选。而百舸平台,也为缓解行业智能化的算力焦渴,发挥了关键作用。

早在百度押注AI、大模型、昆仑芯的时候,就知道必须把多元异构计算集群掌握在自己手中,那么百舸平台的出现,也就是水到渠成了。

进入2025年,国产大模型+异构算力,正在书写智能中国的新篇章。我们已经从百舸身上,发现了百度继续领航AI与云时代的必要条件:

500

基础设施完备。从昆仑芯,到百舸平台,AI算力基础设施底座是百度业务AI重塑的基本保障。

进化动能强劲。高性能优化技术,降本增效,支撑百度大模型、AI应用等低成本高效迭代,持续进化,竞争力不断增强,避免掉队。

商业逻辑清晰。AI即服务、模型即服务的商业逻辑想要成立,必须持续优化token成本,带给客户上云用AI的真实价值,从而在用户规模和资源回报比上占据优势。凭借百舸平台能力,新业务模式得以成立。

为千行万业,开算力通途,属于AI与云的时代才刚刚开始。接下来,百舸支撑的AI云基础设施及服务,不仅是行业和企业加速拥抱AI的时代航船,也将是百度增长的主航道。

500

站务

全部专栏