news 2026/4/4 20:09:29

120亿参数重构AI效率:GLM-4.5-Air开启智能体部署新纪元

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
120亿参数重构AI效率:GLM-4.5-Air开启智能体部署新纪元

120亿参数重构AI效率:GLM-4.5-Air开启智能体部署新纪元

【免费下载链接】GLM-4.5-AirGLM-4.5 系列模型是专为智能体设计的基础模型。GLM-4.5拥有 3550 亿总参数量,其中 320 亿活跃参数;GLM-4.5-Air采用更紧凑的设计,拥有 1060 亿总参数量,其中 120 亿活跃参数。GLM-4.5模型统一了推理、编码和智能体能力,以满足智能体应用的复杂需求项目地址: https://ai.gitcode.com/zai-org/GLM-4.5-Air

导语

智谱AI最新开源的GLM-4.5-Air以1060亿总参数(120亿活跃参数)实现59.8分的综合性能,在保持效率提升4倍的同时,重新定义了轻量级模型的性能边界。

行业现状:大模型发展的效率瓶颈

2025年大语言模型领域正面临"性能与效率"的双重挑战。一方面,企业级应用对模型能力要求持续提升,需要处理更复杂的推理任务和更长文本;另一方面,部署成本、计算资源消耗和推理延迟成为落地关键障碍。据市场调研显示,72%的企业计划增加AI投入,但近60%的预算被硬件成本占用。

当前市场呈现两极分化:闭源大模型如GPT-4性能强劲但成本高昂,而多数开源模型虽部署门槛低却难以满足复杂业务需求。这种"要么性能不足,要么成本过高"的困境,催生了对高效能模型的迫切需求。根据IDC数据,2025年全球AI支出已突破1000亿美元,其中Agent智能体占比达35%,企业级AI Agent应用市场规模约为232亿元。

核心亮点:三大技术突破重构效率边界

1. 混合推理双模式架构

GLM-4.5-Air首创"思考/非思考"双模机制:处理数学证明、多步骤编码等复杂任务时自动激活"思考模式",通过内部工作记忆模拟人类推理过程;客服问答、信息摘要等简单场景则启用"非思考模式"直接输出结果。实测显示,该机制使模型在Terminal-Bench工具调用成功率达90.6%,同时将简单问答响应速度提升42%。

2. 深度优化的MoE工程实现

不同于同类模型增加专家数量的策略,GLM-4.5-Air选择"减宽增高"设计:隐藏维度从8192降至5120,层数从40层提升至64层。这种结构使模型在MMLU推理任务准确率提升3.7%,激活参数利用率达92%,远超行业平均的75%。

如上图所示,GLM-4.5以63.2分位列全球模型第三,而GLM-4.5-Air以59.8分的成绩在轻量化模型中领先,尤其在编码和智能体任务上超越同规模的GPT-OSS-120B。这一性能分布直观展示了MoE架构在平衡参数规模与推理效率方面的显著优势。

3. FP8量化技术的极致优化

通过FP8量化技术,GLM-4.5-Air将模型文件大小压缩至113GB,仅为BF16版本的51%。能源企业实测显示,在H100 GPU上部署时,FP8版本相比BF16版本推理速度提升1.8倍,功耗降低35%,单月算力成本减少约4.2万元。

该图展示了GLM-4.5-Air在不同应用场景的性能表现,其中在TAU-Bench零售场景(77.9分)和航空场景(60.8分)中均超越Kimi K2和DeepSeek-R1,尤其在多轮函数调用(BFCL-v3)任务上达到76.4分,验证了其在企业级智能客服、自动化运维等场景的实用价值。

行业影响与趋势:开源模型的商业化突围

GLM-4.5-Air的MIT开源许可已吸引Shopify、小米等200+商业项目采用。在SWE-bench Verified编码任务中57.6%的准确率,使中小企业首次能以低于1万美元的硬件成本部署企业级代码助手。

典型案例显示,跨境电商基于GLM-4.5-Air构建的智能客服系统将问题解决率从68%提升至89%,人力成本降低40%;券商利用其128K上下文能力处理完整财报分析,将报告生成时间从4小时缩短至20分钟,准确率达85%以上。

从图中可以看出,GLM-4.5-Air以1060亿参数实现59.8分,与3550亿参数的GLM-4.5(63.2分)仅有3.4分差距,却实现了4倍的效率提升,标志着行业从单纯参数扩张转向结构优化的战略转型。

随着H200等硬件对FP8支持的深化,2026年有望出现更多"百亿参数级性能、十亿参数级成本"的高效模型,推动AI智能体向中小企业普及。

总结

GLM-4.5-Air的推出标志着大模型产业正式进入"能效比竞争"新阶段。其核心价值不仅在于性能指标的突破,更在于证明了"100亿级激活参数可媲美传统300亿级密集模型"的技术路径。

对于企业决策者,当前正是布局智能体应用的战略窗口期,建议重点关注三个方向:基于混合推理模式构建多场景自适应智能体、利用FP8量化版本降低部署门槛、通过模型微调实现垂直领域知识沉淀。随着技术迭代,智能体应用的成本壁垒将进一步打破,为各行业带来效率革命新机遇。

开发者可通过以下命令快速部署:

git clone https://gitcode.com/zai-org/GLM-4.5-Air cd GLM-4.5-Air pip install -r requirements.txt python -m vllm.entrypoints.api_server --model . --tensor-parallel-size 2 --quantization fp8

【免费下载链接】GLM-4.5-AirGLM-4.5 系列模型是专为智能体设计的基础模型。GLM-4.5拥有 3550 亿总参数量,其中 320 亿活跃参数;GLM-4.5-Air采用更紧凑的设计,拥有 1060 亿总参数量,其中 120 亿活跃参数。GLM-4.5模型统一了推理、编码和智能体能力,以满足智能体应用的复杂需求项目地址: https://ai.gitcode.com/zai-org/GLM-4.5-Air

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/4 4:31:11

人格障碍诊断系统毕业论文+PPT(附源代码+演示视频)

文章目录人格障碍诊断系统一、项目简介(源代码在文末)1.运行视频2.🚀 项目技术栈3.✅ 环境要求说明4.包含的文件列表(含论文)数据库结构与测试用例系统功能结构后端运行截图项目部署源码下载人格障碍诊断系统 如需其他…

作者头像 李华
网站建设 2026/3/28 6:12:41

Gittyup终极指南:用图形化界面彻底理解Git历史

Gittyup终极指南:用图形化界面彻底理解Git历史 【免费下载链接】Gittyup Understand your Git history! 项目地址: https://gitcode.com/gh_mirrors/gi/Gittyup 想要真正掌握Git版本控制吗?Gittyup这款免费开源的图形化Git客户端,通过…

作者头像 李华
网站建设 2026/3/26 1:26:10

vscode-jest v5终极指南:快速掌握测试插件核心功能

vscode-jest v5终极指南:快速掌握测试插件核心功能 【免费下载链接】vscode-jest The optimal flow for Jest based testing in VS Code 项目地址: https://gitcode.com/gh_mirrors/vs/vscode-jest vscode-jest是Visual Studio Code上最强大的Jest测试框架集…

作者头像 李华
网站建设 2026/3/27 17:34:58

如何快速掌握多分辨率流切换:5个实战技巧完整指南

如何快速掌握多分辨率流切换:5个实战技巧完整指南 【免费下载链接】librealsense Intel RealSense™ SDK 项目地址: https://gitcode.com/GitHub_Trending/li/librealsense Intel RealSense™ SDK作为业界领先的深度感知开发工具包,其强大的多分辨…

作者头像 李华
网站建设 2026/3/15 16:18:19

19、对等网络:颠覆性技术的潜力与挑战

对等网络:颠覆性技术的潜力与挑战 对等网络的恐惧与法律困境 对等网络作为一项具有巨大“颠覆性”潜力的新技术,如同许多类似的创新理念一样,引发了不少担忧。在公众认知中,它与Napster面临的版权侵权法律难题紧密相连。颇具讽刺意味的是,Napster严重依赖中央服务器来存…

作者头像 李华