> 技术 > AI/人工智能

MiniMax 推出全球首个开源大规模混合架构的推理模型 M1:456B 参数,性能超 DeepSeek-R1

人阅读 2025-06-17 17:57:52

6 月 17 日消息,MiniMax 稀宇科技宣布将连续五天发布重要更新。今天第一弹是开源首个推理模型 MiniMax-M1。

根据官方介绍,MiniMax-M1 是世界上第一个开源的大规模混合架构的推理模型。MiniMax 表示:M1 在面向生产力的复杂场景中能力是开源模型中的最好一档,超过国内的闭源模型,接近海外的最领先模型,同时又有业内最高的性价比。

官方博客还提到,基于两大技术创新,MiniMax-M1 训练过程高效得“超出预期”,只用了 3 周时间、512 块 H800 GPU 就完成强化学习训练阶段,算力租赁成本仅 53.47 万美元(注:现汇率约合 384.1 万元人民币),相比一开始的预期直接降低了一个数量级。

M1 有一个显著的优势是支持目前业内最高的 100 万上下文的输入,跟闭源模型里面的 Google Gemini 2.5 Pro 一样,是 DeepSeek R1 的 8 倍,以及业内最长的 8 万 Token 的推理输出。

这主要得益于我们独创的以闪电注意力机制为主的混合架构,从而在计算长的上下文输入以及深度推理的时候显著高效。例如,在用 8 万 Token 深度推理的时候,只需要使用 DeepSeek R1 约 30% 的算力。这个特性使得我们在训练和推理的时候都有很大的算力效率优势。除此之外,我们提出了更快的强化学习算法 CISPO,通过裁剪重要性采样权重(而非传统 token 更新)提升强化学习效率。在 AIME 的实验中,我们发现这比包括字节近期提出的 DAPO 等强化学习算法收敛性能快了一倍,显著的优于 DeepSeek 早期使用的 GRPO。

得益于上述两个技术创新,我们最终强化训练过程非常高效,超出预期。实际上整个强化学习阶段只用到 512 块 H800 三周的时间,租赁成本只有 53.47 万美金。这比一开始的预期少了一个数量级。我们在业内主流的 17 个评测集上详细评测了 M1,具体的结果如下:

我们发现在软件工程、长上下文与工具使用等面向生产力的复杂场景中,我们的模型具备显著优势。

  • MiniMax-M1-40k 和 MiniMax-M1-80k 在 SWE-bench 验证基准上分别取得 55.6% 和 56.0% 的优异成绩,这一成绩略逊于 DeepSeek-R1-0528 的 57.6%,但显著超越其他开源权重模型。

  • 依托其百万级上下文窗口,M1 系列在长上下文理解任务中表现卓越,不仅全面超越所有开源权重模型,甚至超越 OpenAI o3 和 Claude 4 Opus,全球排名第二,仅以微弱差距落后于 Gemini 2.5 Pro。

  • 在代理工具使用场景(TAU-bench)中,MiniMax-M1-40k 同样领跑所有开源权重模型,并战胜 Gemini-2.5 Pro。

值得注意的是,MiniMax-M1-80k 在大多数基准测试中始终优于 MiniMax-M1-40k,这充分验证了扩展测试时计算资源的有效性。详细的技术报告,完整的模型权重可以在我们的官方 Hugging Face 和 GitHub 账号下访问。vLLM 和 Transformer 两个开源项目提供了各自的推理部署支持,我们也正在和 SGLang 合作推进部署支持。因为相对高效的训练和推理算力使用,我们在 MiniMax App 和 Web 上都保持不限量免费使用,并以业内最低的价格在官网提供 API。在 0-32k 的输入长度的时候,输入 0.8 元 / 百万 token,输出 8 元 / 百万 token;在 32k-128k 的输入长度的时候,输入 1.2 元 / 百万 token,输出 16 元 / 百万 token;在最长的 128k-1M 的输入长度的时候,输入 2.4 元 / 百万 token,输出 24 元 / 百万 token。前面两种模式都比 DeepSeek-R1 性价比更高,后面一种模式 DeepSeek 模型不支持。除了 M1 之外,接下来连续四个工作日,我们还准备了一些更新带给大家,敬请期待。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,所有文章均包含本声明。

LOT物联网

iot产品 iot技术 iot应用 iot工程

Powered By LOT物联网  闽ICP备2024036174号-1

联系邮箱:support1012@126.com