智谱公开最新一代大模型 GLM-5 技术细节,性能显著提升

爱特百科 百科资讯 3

2 月 22 日消息,智谱今日正式公开了其新一代大模型 GLM-5 的技术细节。

智谱公开最新一代大模型 GLM-5 技术细节,性能显著提升

▲ GLM-5、DeepSeek-V3.2、Claude Opus 4.5、Gemini 3 Pro 和 GPT-5.2 对比

据介绍,该模型在智能体(Agent)、推理与编程(ARC)能力上实现突破,通过四大核心技术革新显著提升性能与效率:

  • 稀疏注意力架构(DSA):动态筛选关键信息,将长序列(200K 上下文)的注意力计算成本降低 1.5-2 倍,支持 7440 亿参数规模下高效推理;

  • 异步强化学习框架:解耦训练与推理过程,利用新型基础设施提升 GPU 利用率,加速智能体轨迹探索;

  • 异步 Agent 强化学习算法:优化长周期任务中的自主规划与纠错能力,适应复杂软件工程场景;

  • 国产芯片全栈适配:深度优化华为昇腾、摩尔线程等七大国产平台,单节点性能媲美双 GPU 集群,长序列处理成本降低 50%。

▲ Artificial Analysis Intelligence Index v4.0 涵盖 10 项评估

在公开测试中,GLM-5 于 ArtificialAnalysis.ai、LMArena 等榜单达到开源模型最高水平:

    • Artificial Analysis Intelligence Index v4.0 评分 50 分,刷新开源记录;

    • LMArena 文本 / 代码竞技场位列开放模型第一,整体表现接近 Claude Opus 4.5;

    • 商业模拟测试 Vending-Bench 2 中,以 4432 美元余额展现长期规划能力;

    • 真实编程任务测试 CC-Bench-V2 显示,其前端、后端及长程任务完成度超越前代 GLM-4.7。

▲ GLM-5 与开源 / 闭源模型的对比。

为验证工程实用性,团队构建自动化评估体系:

    • 前端开发:通过 GUI 智能体交互验证,构建成功率达 98%;

    • 后端修改:85 项多语言任务严格依赖单元测试,通过率与 Claude Opus 4.5 相当;

    • 长程开发链:在万级代码库探索任务中表现优于闭源模型,但多步增量开发仍有提升空间。

▲ SWE-rebench 上的性能表现,2026 年 1 月。

附技术报告链接:
https://arxiv.org/pdf/2602.15763

相关阅读:

  • 《智谱最新旗舰模型 GLM-5 炸场:编程、智能体能力取得开源 SOTA 表现》

  • 《智谱对 GLM Coding Plan 套餐价格进行结构性调整,整体涨幅 30% 起》

  • 《Artificial Analysis 榜单全球第四、开源第一:智谱上线开源 GLM-5,与华为昇腾、寒武纪等深度适配》

  • 《智谱发布 GLM Coding Plan 致歉信:规则透明度不够、GLM-5 灰度节奏太慢、老用户升级机制设计粗糙》

抱歉,评论功能暂时关闭!