Phone: 17794595987

7B 参数打天下——小米开源 AI 大模型 MiMo 全景观察

2025-08-11 10:27:27 23
新闻综述

7B 参数—小米开源 AI 大模型 MiMo 全景观察

发布时间:2025 年 8 月 11 日

一、从“不做大模型”到“开源 MiMo”,小米只用了一年 可点击查看

2023 年,雷军曾公开表示“小米不会去做 OpenAI 那样的通用大模型”。然而,一年之后的 2025 年 4 月 30 日,一个名为 Xiaomi MiMo 的公众号悄然上线,首条推文就甩出重磅消息:小米正式开源首个专为“推理”设计的大模型 MiMo-7B。

MiMo 一出,便刷爆 AI 圈——7B 参数在数学推理(AIME 24-25)与代码竞赛(LiveCodeBench v5)两大权威基准上,分数不仅超越了 OpenAI 的闭源推理模型 o1-mini,还把阿里 32B 参数的 QwQ-32B-Preview 拉下马,被网友戏称为“参数越小,打法越狠”。

二、技术拆解:预训练 + 后训练双轮驱动 可点击查看

小米在官方技术报告中把 MiMo 的成功归结为“预训练阶段见多识广,后训练阶段精打细磨”。

阶段 关键动作 效果
预训练 • 挖掘 200B tokens 富推理语料
• 三阶段渐进式训练,共 25T tokens
让 7B 模型“见过大世面”
后训练 • Test Difficulty Driven Reward:按题目难度分档给奖励,解决 RL 奖励稀疏
• Easy Data Re-Sampling:用简单题稳住训练方差
• Seamless Rollout 框架:训练提速 2.29×,验证提速 1.96×
小模型也能高效强化学习

值得一提的是,MiMo 系列一口气放出 4 个版本:Base、SFT、RL、RL-Zero,全部托管在 Hugging Face,开源不到一周,下载量已破 10 万。

三、多模态再进阶:MiMo-VL 让 7B 模型“看得见” 可点击查看

5 月底,小米乘胜追击,推出多模态版本 MiMo-VL-7B,在图片、视频、GUI(图形界面)理解上再度刷新纪录:

  • 在 OlympiadBench、MathVision 等数学视觉混合测评中,MiMo-VL-7B 以 1/10 的参数优势碾压 Qwen-2.5-VL-72B;
  • 在内部 VLM Arena 盲测中,MiMo-VL-7B 综合得分超越 GPT-4o,成为开源阵营第一名;
  • 用户可通过指令 /no_think 一键切换“推理链可见”与“极速回答”两种模式,体验感拉满。

8 月 11 日,团队再次更新 MiMo-VL-7B-2508,将 MMMU 基准首次推到 70 分以上,ChartQA 更是达到 94.4 分,真正把“小参数 + 多模态”玩出了花。

四、人才、算力、场景:小米的 AI 全栈布局 可点击查看

MiMo 不是一次简单的“秀肌肉”。多位知情人士透露,小米正在搭建万卡级 GPU 集群,雷军亲自挂帅;DeepSeek-V2 关键开发者罗福莉等多位大模型人才也已陆续加盟。

在业务落地上,小米招聘页面一口气放出数十个大模型岗位,最高年薪 128 万元,方向覆盖智能门锁、AI 面试、智能客服等自家生态场景。小参数模型带来的端侧友好性,也让 MiMo 天然适合手机、音箱、汽车座舱等小米强势终端。

五、行业回响:从“卷参数”到“卷密度” 可点击查看

MiMo 的开源被视为行业转折点——当 7B 参数就能打平甚至超越 30B+ 模型时,“唯参数论”开始失灵。正如小米大模型 Core 团队在公开信中所说:

“AGI 征途漫长,与其堆算力,不如先让每一亿参数都发挥十亿的价值。”

六、快速体验指南 可点击查看

结语

从“不做大模型”到“以小博大”,小米用 MiMo 系列完成了一次漂亮的转身:既秀出了算法创新的硬实力,也为自家 AIoT 帝国补上了“最强大脑”。当开源社区还在复现 MiMo-7B 的训练细节时,小米的下一步,或许已经把 1B 甚至 0.5B 的“超小钢炮”搬上了实验机。

AGI 的终点尚远,但显然,小米已经找到了属于自己的赛道。

本文基于小米官方技术报告与社区公开信息整理,旨在帮助开发者快速了解并使用 MiMo 系列模型。如需更深入的技术支持,可关注 Xiaomi MiMo 官方公众号获取最新动态。