news 2026/2/22 16:18:17

使用 vLLM 部署 GLM-4.7-Flash 大模型完整指南

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
使用 vLLM 部署 GLM-4.7-Flash 大模型完整指南

前言

GLM-4.7-Flash 是智谱 AI 推出的一款高性能大语言模型。本文将详细介绍如何在 Ubuntu 22.04 + CUDA 12.4 环境下,使用 vLLM 框架部署 GLM-4.7-Flash 模型,支持双卡推理和工具调用功能。

环境准备

硬件要求

  • GPU: 2x NVIDIA L20 48GB
  • 内存: 至少 128GB
  • 存储: 至少 200GB(用于模型存储)

软件环境

# 操作系统Ubuntu22.04LTS# CUDA 版本CUDA12.4# Docker 版本Docker24.0+ Docker Compose2.0+

Dockerfile 配置

创建Dockerfile文件:

FROM vllm/vllm-openai:nightly RUN pip install transformers==5.0.0 -i https://mirrors.aliyun.com/pypi/simple/

说明:

  • 基于vllm/vllm-openai:nightly镜像,这是 vLLM 官方提供的兼容 OpenAI API 的镜像
  • 安装transformers==5.0.0以支持 GLM 模型的加载
  • 使用阿里云镜像源加速 pip 安装

构建镜像

dockerbuild -t glm-4.7-custom.

模型准备

下载 GLM-4.7-Flash 模型文件到./models目录:

mkdir-p ./models/GLM-4.7-Flash# 将模型文件放入该目录

确保目录结构如下:

./models/GLM-4.7-Flash/ ├── config.json ├── tokenizer.model ├── tokenizer_config.json ├── chat_template.jinjia └── ...

启动服务

完整启动命令

sudodockerrun -itd\-eNCCL_DEBUG=INFO\-eNCCL_SHM_DISABLE=0\-eOMP_NUM_THREADS=1\-eCUDA_VISIBLE_DEVICES=0,1\-eCUDA_DEVICE_ORDER=PCI_BUS_ID\--gpus all\-p9998:8000\--shm-size 128GB\-v ./models:/models\glm-4.7-custom:latest\--model /models/GLM-4.7-Flash\--tensor-parallel-size2\--gpu-memory-utilization0.90\--max-model-len100000\--served-model-name GLM-4.7-Flash\--reasoning-parser glm45\--chat-template /models/GLM-4.7-Flash/chat_template.jinjia\--enable-auto-tool-choice\--tool-call-parser glm47\--quantization fp8\--generation-config vllm\--chat-template-content-format openai

参数详解

参数说明
-e NCCL_DEBUG=INFO启用 NCCL 调试信息输出
-e NCCL_SHM_DISABLE=0启用共享内存通信
-e OMP_NUM_THREADS=1设置 OpenMP 线程数为 1
-e CUDA_VISIBLE_DEVICES=0,1指定使用 GPU 0 和 1
--gpus all容器访问所有 GPU
-p 9998:8000端口映射,宿主机 9998 映射到容器 8000
--shm-size 128GB设置共享内存大小
-v ./models:/models挂载模型目录

vLLM 参数详解

参数说明
--model模型路径
--tensor-parallel-size 2张量并行度,使用 2 张 GPU
--gpu-memory-utilization 0.90GPU 显存利用率 90%
--max-model-len 100000最大序列长度
--served-model-name服务对外暴露的模型名称
--reasoning-parser glm45推理解析器(GLM-4.5 格式)
--chat-template聊天模板文件路径
--enable-auto-tool-choice启用自动工具选择
--tool-call-parser glm47工具调用解析器(GLM-4.7 格式)
--quantization fp8使用 FP8 量化
--generation-config vllm生成配置使用 vLLM 格式
--chat-template-content-format openai聊天内容格式兼容 OpenAI

测试服务

检查服务状态

# 查看容器日志dockerlogs -f<container_id># 检查健康状态curlhttp://localhost:9998/health

API 调用示例

curlhttp://localhost:9998/v1/chat/completions\-H"Content-Type: application/json"\-d'{ "model": "GLM-4.7-Flash", "messages": [ {"role": "user", "content": "你好,请介绍一下你自己"} ], "temperature": 0.7 }'

Python 调用示例

fromopenaiimportOpenAI client=OpenAI(base_url="http://localhost:9998/v1",api_key="dummy")response=client.chat.completions.create(model="GLM-4.7-Flash",messages=[{"role":"user","content":"写一首关于春天的诗"}],temperature=0.7,max_tokens=512)print(response.choices[0].message.content)

常见问题

1. 显存不足

调整--gpu-memory-utilization--max-model-len参数

2. NCCL 通信错误

确保--shm-size设置足够大,推荐 128GB+

3. 模型加载慢

首次启动需要加载模型到显存,耐心等待

总结

通过 vLLM 部署 GLM-4.7-Flash 可以获得高性能的推理服务,支持 OpenAI 兼容的 API 接口,方便集成到现有应用中。双卡张量并行可以有效提升推理吞吐量,FP8 量化进一步降低显存占用。在 2 张 NVIDIA L20 48GB 显卡上,该配置可以稳定运行并支持长文本推理。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/2/11 6:10:35

机器学习输入层:从基础到前沿,解锁模型性能第一关

机器学习输入层&#xff1a;从基础到前沿&#xff0c;解锁模型性能第一关 引言 在构建机器学习模型时&#xff0c;我们常常将目光聚焦于复杂的网络架构与精妙的损失函数。然而&#xff0c;输入层作为模型与原始数据的“翻译官”和“第一印象”&#xff0c;其形式设计与处理流程…

作者头像 李华
网站建设 2026/2/13 2:00:39

树莓派的一些命令

更新系统包列表&#xff1a;sudo apt update升级已安装的包&#xff1a;sudo apt upgrade查看树莓派的信息&#xff1a;cat /proc/cpuinfo查看内存使用情况&#xff1a;free -h查看磁盘使用情况&#xff1a;df -h查看网络接口信息&#xff1a;ip addr7.如果你想要更准确的CPU信…

作者头像 李华
网站建设 2026/2/21 5:43:45

智科毕业设计新颖的选题指导

文章目录&#x1f6a9; 1 前言1.1 选题注意事项1.1.1 难度怎么把控&#xff1f;1.1.2 题目名称怎么取&#xff1f;1.2 选题推荐1.2.1 起因1.2.2 核心- 如何避坑(重中之重)1.2.3 怎么办呢&#xff1f;&#x1f6a9;2 选题概览&#x1f6a9; 3 项目概览题目1 : 大数据电商用户行为…

作者头像 李华
网站建设 2026/2/22 3:55:53

传音控股预计2025年营收656亿:净利25亿 同比降54%

雷递网 乐天 1月30日深圳传音控股股份有限公司&#xff08;证券代码&#xff1a;688036证券简称&#xff1a;传音控股&#xff09;日前发布业绩预告&#xff0c;传音控股预计2025年营收为655.68亿元左右&#xff0c;比上年同期减少31.47亿元左右&#xff0c;同比减少4.58%左右。…

作者头像 李华
网站建设 2026/2/20 0:31:58

能源基建安全失守?暗网新型 OT 攻击框架的产业化冲击

在数字与物理世界深度融合的当下&#xff0c;能源基础设施作为国家关键信息基础设施的核心&#xff0c;正成为网络攻击的首要目标。2026年初&#xff0c;暗网浮出多款专为能源行业打造的新型OT攻击框架&#xff0c;这类框架由国家背景黑客组织与黑灰产团伙联合打造&#xff0c;…

作者头像 李华