MiniMax-M2
支持
205K tokens
聊天大模型
2025-10-27
239.99 GB
默认单位:$/100万 tokens;若计费单位不同,则以供应商公开的原始标注为准。
| 模态 | 输入 | 输出 |
|---|---|---|
| 文本 | 0.3 美元/100万tokens | 1.2 美元/100万tokens |
2025 年 10 月 27 日,中国 AI 公司 MiniMax 正式发布了其最新大语言模型 MiniMax M2,这款紧凑型模型专为编程任务和 Agentic 工作流设计,同时兼顾通用对话能力。 作为 MiniMax 在开源领域的又一力作,M2 的推出标志着国产大模型在效率和成本优化上的新进展,迅速登上全球评测榜单的前列。
MiniMax M2 并非一款追求参数规模的巨型模型,而是定位于“轻量级”架构,总参数量达 2300 亿,其中激活参数仅 100 亿。 这种设计理念源于对实际应用场景的考量,特别是可视化编程工具(如 MiniMax 的 Max 平台)和智能体工作流。不同于通用大模型的“全能型”定位,M2 更注重在特定任务中的深度优化,例如代码生成、代理式决策和多步推理,从而在资源受限的环境中实现高性能。
据官方描述,M2 支持长达 204,800 tokens 的上下文窗口,并可输出最多 131,072 tokens,这使得它在处理复杂编程项目或长链路 Agent 交互时表现出色。 此外,该模型已开源,开发者可以通过 MiniMax 的平台快速集成,标志着开源生态在 Agent 领域的进一步扩展。
M2 的核心亮点在于其针对编程和智能体优化的专项能力。首先,在代码生成与调试方面,模型能够高效处理多语言编程任务,支持从 Python 到 JavaScript 的广泛场景,并集成可视化编程接口。 这对于开发者构建自动化工作流尤为实用,例如在 DevOps 或低代码平台中的应用。
其次,作为 Agentic 工作流的专属引擎,M2 强调多代理协作和工具调用效率。它能模拟人类-like 的决策过程,减少幻觉发生率,并在实时交互中保持低延迟。 相比前代模型,M2 在这些领域的改进体现在更强的上下文保持和错误恢复机制上,帮助智能体在复杂环境中更可靠地执行任务。
通用对话能力也是 M2 的亮点之一,尽管非主打,但其在自然语言理解上的表现已接近顶级模型水准。
第三方评测显示,MiniMax M2 在 Artificial Analysis 榜单上位居前五,综合能力被认为“直逼 GPT-5”或“比肩 Claude 4.5”。 具体而言,它在代码基准(如 HumanEval)上的得分超越 DeepSeek-V3.2,在 Agent 任务(如 GAIA)中表现出色,推理速度和准确率均有显著提升。
定价方面,M2 采用亲民策略:每百万 tokens 输入 0.3 美元,输出 1.2 美元,仅为 Claude 系列的 8%。 这使得它在商业部署中更具竞争力,尤其适合中小企业或初创团队。API 已于发布当日上线,支持 OpenRouter 等平台集成。
M2 的发布为 AI 智能体生态注入新活力。在编程教育、自动化测试和多模态 Agent 构建等领域,它有望成为关键工具。同时,开源性质将吸引全球开发者贡献,加速模型迭代。
关注DataLearnerAI微信公众号,接受最新大模型资讯