7B 参数—小米开源 AI 大模型 MiMo 全景观察
一、从“不做大模型”到“开源 MiMo”,小米只用了一年 可点击查看
2023 年,雷军曾公开表示“小米不会去做 OpenAI 那样的通用大模型”。然而,一年之后的 2025 年 4 月 30 日,一个名为 Xiaomi MiMo 的公众号悄然上线,首条推文就甩出重磅消息:小米正式开源首个专为“推理”设计的大模型 MiMo-7B。
MiMo 一出,便刷爆 AI 圈——7B 参数在数学推理(AIME 24-25)与代码竞赛(LiveCodeBench v5)两大权威基准上,分数不仅超越了 OpenAI 的闭源推理模型 o1-mini,还把阿里 32B 参数的 QwQ-32B-Preview 拉下马,被网友戏称为“参数越小,打法越狠”。
二、技术拆解:预训练 + 后训练双轮驱动 可点击查看
小米在官方技术报告中把 MiMo 的成功归结为“预训练阶段见多识广,后训练阶段精打细磨”。
阶段 | 关键动作 | 效果 |
---|---|---|
预训练 | • 挖掘 200B tokens 富推理语料 • 三阶段渐进式训练,共 25T tokens |
让 7B 模型“见过大世面” |
后训练 | • Test Difficulty Driven Reward:按题目难度分档给奖励,解决 RL 奖励稀疏 • Easy Data Re-Sampling:用简单题稳住训练方差 • Seamless Rollout 框架:训练提速 2.29×,验证提速 1.96× |
小模型也能高效强化学习 |
值得一提的是,MiMo 系列一口气放出 4 个版本:Base、SFT、RL、RL-Zero,全部托管在 Hugging Face,开源不到一周,下载量已破 10 万。
三、多模态再进阶:MiMo-VL 让 7B 模型“看得见” 可点击查看
5 月底,小米乘胜追击,推出多模态版本 MiMo-VL-7B,在图片、视频、GUI(图形界面)理解上再度刷新纪录:
- 在 OlympiadBench、MathVision 等数学视觉混合测评中,MiMo-VL-7B 以 1/10 的参数优势碾压 Qwen-2.5-VL-72B;
- 在内部 VLM Arena 盲测中,MiMo-VL-7B 综合得分超越 GPT-4o,成为开源阵营第一名;
- 用户可通过指令
/no_think
一键切换“推理链可见”与“极速回答”两种模式,体验感拉满。
8 月 11 日,团队再次更新 MiMo-VL-7B-2508,将 MMMU 基准首次推到 70 分以上,ChartQA 更是达到 94.4 分,真正把“小参数 + 多模态”玩出了花。
四、人才、算力、场景:小米的 AI 全栈布局 可点击查看
MiMo 不是一次简单的“秀肌肉”。多位知情人士透露,小米正在搭建万卡级 GPU 集群,雷军亲自挂帅;DeepSeek-V2 关键开发者罗福莉等多位大模型人才也已陆续加盟。
在业务落地上,小米招聘页面一口气放出数十个大模型岗位,最高年薪 128 万元,方向覆盖智能门锁、AI 面试、智能客服等自家生态场景。小参数模型带来的端侧友好性,也让 MiMo 天然适合手机、音箱、汽车座舱等小米强势终端。
五、行业回响:从“卷参数”到“卷密度” 可点击查看
MiMo 的开源被视为行业转折点——当 7B 参数就能打平甚至超越 30B+ 模型时,“唯参数论”开始失灵。正如小米大模型 Core 团队在公开信中所说:
“AGI 征途漫长,与其堆算力,不如先让每一亿参数都发挥十亿的价值。”
六、快速体验指南 可点击查看
-
开源地址(官方汇总)
https://huggingface.co/XiaomiMiMo -
在线 DEMO(Hugging Face Spaces)
搜索 “MiMo-VL-7B-RL-2508” 即可零门槛试玩。
结语
从“不做大模型”到“以小博大”,小米用 MiMo 系列完成了一次漂亮的转身:既秀出了算法创新的硬实力,也为自家 AIoT 帝国补上了“最强大脑”。当开源社区还在复现 MiMo-7B 的训练细节时,小米的下一步,或许已经把 1B 甚至 0.5B 的“超小钢炮”搬上了实验机。
AGI 的终点尚远,但显然,小米已经找到了属于自己的赛道。