GL

GLM-4.6

聊天大模型

General Language Model - 4.6

发布时间: 2025-09-30

1,255
模型参数(Parameters)
3550.0
最高上下文长度(Context Length)
200K
是否支持中文
支持
推理能力(Reasoning)

模型基本信息

是否支持推理过程

支持

最高上下文输入长度

200K tokens

最长输出结果

131072 tokens

模型类型

聊天大模型

发布时间

2025-09-30

模型预文件大小

705.48 GB

推理模式
常规模式(Non-Thinking Mode) 思考模式(Thinking Mode)

开源和体验地址

代码开源状态
预训练权重开源
MIT License - 免费商用授权
GitHub 源码
Hugging Face
在线体验

官方介绍与博客

官方论文
DataLearnerAI博客
暂无介绍博客

API接口信息

接口速度(满分5分)
接口价格

默认单位:$/100万 tokens;若计费单位不同,则以供应商公开的原始标注为准。

标准计费 Standard
模态 输入 输出
文本 0.6 美元/ 100 万 tokens 2.2 美元/ 100 万 tokens

GLM-4.6模型在各大评测榜单的评分

综合评估

共 10 项评测
MMLU Pro thinking
83
28 / 107
GPQA Diamond thinking + 使用工具
82.90
25 / 135
GPQA Diamond thinking
81
31 / 135
MMLU Pro normal
78
50 / 107
LiveBench normal
71.22
17 / 51
LiveBench thinking
71.22
17 / 51
GPQA Diamond normal
63
92 / 135
HLE thinking + 使用工具
30.40
15 / 72
HLE thinking
17.20
39 / 72
HLE normal
5.20
65 / 72

编程与软件工程

共 5 项评测
LiveCodeBench thinking + 使用工具
84.50
5 / 98
LiveCodeBench thinking
82.80
9 / 98
68
31 / 68
SWE-bench Verified thinking + 使用工具
68
31 / 68
LiveCodeBench normal
56
59 / 98

数学推理

共 3 项评测
AIME2025 thinking
98.60
11 / 95
AIME2025 thinking + 使用工具
98.60
11 / 95
AIME2025 normal
44
82 / 95

AI Agent - 工具使用

共 1 项评测
Terminal-Bench thinking + 使用工具
40.50
12 / 35

Agent能力评测

共 2 项评测
τ²-Bench thinking + 使用工具
75.90
8 / 26
τ²-Bench - Telecom thinking + 使用工具
71
12 / 17

指令跟随

共 1 项评测
IF Bench thinking
43
14 / 14

AI Agent - 信息收集

共 1 项评测
BrowseComp thinking + 使用工具
45.10
6 / 10

发布机构

General Language Model - 4.6模型解读

Z.ai 正式发布其旗舰大模型 GLM-4.6。与前代 GLM-4.5 相比,这一代模型在上下文窗口、推理能力、智能体协作与代码生成等方面均实现了显著突破。尤其是 200K 超长上下文窗口 与 Claude 级别的代码性能,被认为是对国内外大模型竞争格局的一次强力冲击。

GLM-4.6 的发布不仅意味着性能的升级,更代表 Z.ai 在 智能体生态 和 真实场景任务执行力 上进一步逼近国际顶尖水平,展现出断层领先的潜力。


背景:为什么需要 GLM-4.6?

在过去的一年里,用户对大模型的需求已从「能对话」转向「能完成复杂任务」。GLM-4.5 虽然具备了 128K 的长上下文和基础的代码能力,但在 多轮任务执行、复杂前端开发 以及 工具调用链路 上仍存在瓶颈。

举例来说,在真实开发场景中,GLM-4.5 能生成代码片段,但在处理完整前端工程时容易出现上下文遗失和逻辑断裂。而在推理任务上,GLM-4.5 的表现仍不够稳定,尤其是在多步骤推导或跨领域知识整合时。

为了解决这些问题,GLM-4.6 引入了三大核心升级:

  • 上下文窗口扩展至 200K tokens,大幅提升跨文件、跨会话的记忆与推理能力;
  • 推理与工具使用能力显著增强,可以在推理过程中主动调用外部工具和搜索;
  • 代码能力跃升,在真实场景测试中逼近 Claude Sonnet 4 的水准,尤其擅长前端页面生成与多语言编程支持。

这意味着 GLM-4.6 不仅仅是一次常规更新,而是一次 面向“智能体时代”的架构升级


竞争力分析:性能数据全面碾压开源基线

GLM-4.6 的提升并非纸面文章,而是有坚实的实测数据支撑。Z.ai 团队在 8 个公开基准测试 上对 GLM-4.6 进行了评估,涵盖智能体、多步骤推理与代码生成等关键能力。

结果显示:

  • 相比 GLM-4.5,GLM-4.6 在几乎所有项目上均有 5-15% 的提升;
  • 在 CC-Bench 扩展版 的真实任务测试中,GLM-4.6 的人类偏好胜率达到 48.6%,接近 Claude Sonnet 4;
  • 与国内外顶尖开源模型(如 DeepSeek-V3.2-Exp)相比,GLM-4.6 保持 明显优势。

值得注意的是,GLM-4.6 在 Token 使用效率 上也取得突破:完成任务所需的 Token 数比 GLM-4.5 少约 15%,意味着用户在相同预算下可以完成更多工作。

<font color=red>红色高亮:GLM-4.6 在真实世界任务表现上几乎追平 Claude Sonnet 4,但价格仅为其七分之一。</font>


三大核心亮点:从推理到代码的全面升级

1. 200K 超长上下文:跨文档任务的终极利器

GLM-4.6 将上下文窗口从 128K 扩展到 200K tokens,这意味着它可以一次性理解整本书籍或完整代码库。

在法律行业,这种能力让模型能够基于整套合同草案提供修订意见;在软件开发中,它可以同时分析多个模块的依赖关系,从而生成更完整、更一致的项目代码。

2. 高阶推理与工具使用:更智能的“思考与行动”

不同于仅依赖静态知识的前代,GLM-4.6 支持在推理过程中调用工具和搜索。这让它在数据分析、算法设计等任务中能主动寻找外部信息,并基于结果进行多步逻辑推理。

例如,在科研写作场景中,GLM-4.6 能先调用搜索工具检索最新论文,再对比不同研究结论,最后整合成结构化综述,大幅减少人工干预。

3. 代码生成与调试:媲美 Claude Code 的实战力

GLM-4.6 在代码基准上的得分显著提高,尤其在 前端开发与复杂系统调试 中表现出色。

在 Cline 与 Roo Code 这类智能编程助手中,GLM-4.6 可以快速生成视觉效果精美的前端页面,并根据用户反馈进行迭代优化。同时,它对 跨语言任务 的支持也更强,能够在 Python、JavaScript、C++ 等多种语言之间进行无缝切换。

4. 文风与角色扮演优化:更自然的交互体验

除了技术性能,GLM-4.6 在写作与角色扮演场景中也有提升。它能更好地对齐用户的写作偏好,在小说创作、对话模拟等场景中展现出 更流畅、更具人性化的表达


实用信息:如何立即使用 GLM-4.6?

API 接入

用户可直接在 Z.ai API 平台 调用 GLM-4.6,官方提供了详细的开发文档:

👉 GLM-4.6 API 文档

同时,GLM-4.6 也可通过 OpenRouter 接入,方便开发者快速集成到现有系统。

与智能体结合

GLM-4.6 已经全面接入 Claude Code、Kilo Code、Roo Code、Cline 等智能编程代理,用户只需在配置文件中将模型名称更新为 "glm-4.6" 即可完成升级。

订阅与价格

对订阅了 GLM Coding Plan 的用户,系统将自动升级至 GLM-4.6。

相比 Claude,GLM Coding Plan 价格仅为 1/7,但提供 3 倍使用额度,在成本效率上优势明显。

👉 立即订阅

本地部署

对于企业和研究机构,GLM-4.6 的模型权重已在 HuggingFace 和 ModelScope 公布,并支持 vLLM、SGLang 等推理框架。部署指南可在官方 GitHub 获取。


结语与参考

GLM-4.6 的发布标志着 Z.ai 在大模型竞争中迈出关键一步。它不仅在 长上下文、推理与代码生成 等硬核指标上显著提升,更在真实场景测试中表现接近国际一线水平。考虑到 价格优势 与 开放生态,GLM-4.6 无疑是当前市场上最具性价比的选择之一。

🔗 获取更多信息:

  • 技术报告(GLM-4.5 版对比):HuggingFace Tech Report
  • GLM-4.6 API 使用文档:Z.ai 官方文档
  • 订阅计划与价格:GLM Coding Plan

关注DataLearnerAI公众号

关注DataLearnerAI微信公众号,接受最新大模型资讯

DataLearnerAI WeChat