2026-04-27 23:49:37
小米的 MiMo-V2.5 系列开源:1T 参数,相较 GPT-5.4 令牌效率更优
Gate 新闻消息,4 月 27 日——小米的 MiMo 团队已在 MIT 许可下开源 MiMo-V2.5 系列大型语言模型,支持商业部署、持续训练和微调。两款模型均具备 100 万个令牌的上下文窗口。MiMo-V2.5-Pro 是一种纯文本的专家混合 MoE 模型,总参数量为 1.02 万亿,活跃参数为 420 亿;而 MiMo-V2.5 是原生多模态模型,总参数量为 3100 亿,活跃参数为 150 亿,支持文本、图像、视频和音频理解。
MiMo-V2.5-Pro 面向复杂的智能体与编程任务。在 ClawEval 基准测试中,它实现了 64% 的 Pass@3,同时每个任务轨迹消耗约 70,000 个令牌——比 Claude Opus、Gemini 3.1 Pro 和 GPT-5.4 少 40% 到 60% 的令牌。该模型在 SWE-bench Verified 上得分 78.9。在演示中,V2.5-Pro 用时 4.3 小时、通过 672 次工具调用,独立完成了为北京大学编译课程项目开发的完整 SysY-to-RISC-V 编译器,并在隐藏测试集上取得 233/233 的满分。
MiMo-V2.5 面向多模态智能体场景设计,配备专用视觉编码器 729 million parameters 和音频编码器 261 million parameters,在 Claw-Eval 通用子集上得分 62.3。两款模型采用混合架构,将滑动窗口注意力 SWA 和全局注意力 GA 结合,并配套 3 层多令牌预测 MTP 模块以加速推理。模型权重已在 Hugging Face 提供。
在开源发布的同时,MiMo 团队还推出了“Orbit Quadrillion Token Creator Incentive Program(Orbit 四千亿令牌创作者激励计划)”,向全球用户提供 30 天内共计 1000 万亿令牌的免费额度。个人开发者、团队和企业可通过计划页面申请,评估周期约为 3 个工作日;获批后权益将以令牌方案(Token Plans)或直接抵扣的形式发放,并兼容 Claude Code、Cursor 等工具。