如何看待小米发布的推理大模型MiMo?

4月30日A股本月最后一个交易日,小米系全线拉升,小米集团盘中一度大涨超5%,金山云一度大涨超18%,金山软件最高涨超6%。据悉,小米开源了首个为推理(Reasoning)而生的大模型“Xiaomi MiMo”,联动预训练到后训练,全面提升推理能力。

500

500

来源:Xiaomi MiMo​

预训练增长见瓶颈?如何激发模型推理潜能?

这是「Xiaomi MiMo」诞生之初探索的核心问题!

今天,小米开源首个为推理(Reasoning)而生的大模型「Xiaomi MiMo」,联动预训练到后训练,全面提升推理能力。

在数学推理(AIME 24-25)和 代码竞赛(LiveCodeBench v5)公开测评集上,MiMo 仅用 7B 的参数规模,超越了 OpenAI 的闭源推理模型 o1-mini 和阿里 Qwen 更大规模的开源推理模型 QwQ-32B-Preview。

500

  强化学习潜力超越经典开源32B模型

随着DeepSeek-R1引发业界强化学习(RL)共创潮,DeepSeek-R1-Distill-7B和Qwen2.5-32B已成为广泛使用的强化学习起步模型。

在相同RL训练数据情况下,MiMo-7B 的数学&代码领域的强化学习潜力显著领先。

500

  预训练+后训练,联动提升推理能力

MiMo推理能力的提升,由预训练和后训练阶段中数据和算法等多层面的创新联合驱动,包括:

预训练:核心是让模型见过更多推理模式

数据:着重挖掘富推理语料,并合成约200B tokens推理数据。

训练:进行了三阶段训练,逐步提升训练难度,总训练25T tokens。

500

后训练:核心是高效稳定的强化学习算法和框架

算法:提出 Test Difficulty Driven Reward 来缓解困难算法问题中的奖励稀疏问题,并引入 Easy Data Re-Sampling 策略,以稳定 RL 训练。

框架:设计了Seamless Rollout系统,使得RL训练加速2.29倍,验证加速1.96倍。

500

所有技术细节已经Open,见技术报告:https://github.com/XiaomiMiMo/MiMo/blob/main/MiMo-7B-Technical-Report.pdf

  MiMo-7B全系列已开源

MiMo-7B 已开源4个模型至HuggingFace:https://huggingface.co/XiaomiMiMo

500

站务

全部专栏