news 2025/12/29 9:55:18

Ollamavllm中部署模型think模式开启关闭

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Ollamavllm中部署模型think模式开启关闭

(一)Ollama中think模式开启关闭

在 Ollama 中部署 Qwen3 模型时,关闭其“思考模式”(即不显示推理过程 ``)有以下几种常用方法。

1. 在提示词中添加指令

最简单的方式是在你的提问末尾加上/no_think指令。这会让模型在当前轮次直接输出最终答案,而不展示思考过程。

你好,请介绍一下自己/no_think

2. 通过命令行参数设置

在启动模型时,可以使用--think=false--hidethinking参数来全局关闭思考模式。

ollama run qwen3:4b --think=false# 或ollama run qwen3:4b --hidethinking

3. 在交互式会话中使用命令

如果你已经通过ollama run进入了交互式对话,可以在会话中输入命令来关闭思考模式。

/set nothink

输入/?可以查看当前会话支持的所有命令。

4. 通过 API 调用控制

在使用 Ollama 的 API 进行聊天请求时,可以在请求体中设置"think": false来关闭思考。

{"model":"qwen3","messages":[{"role":"user","content":"你的问题"}],"think":false}

5. 使用非思考版本的模型

有些 Qwen3 模型变体(如qwen3:235b-a22b-instruct-2507-q4_K_M)本身就不是“思考模型”,直接使用它们就不会有思考过程。

重要说明

  • 指令优先级:在对话中,模型会遵循最新的指令。如果你之前开启了思考,在最新的消息中加上/no_think即可关闭。
  • 模型限制:部分专门为深度推理设计的模型(如qwen3-30b-a3b-thinking-2507)可能无法完全关闭思考模式。
  • 参数差异:某些教程中提到的enable_thinking参数通常是在直接使用模型库(如 Transformers 或 SGLang)时设置,在 Ollama 的上下文中,更推荐使用上述几种方法。

你可以根据自己使用 Ollama 的方式(命令行交互、API 调用等)选择最方便的方法来关闭思考模式。

(二)Vllm中think模型开启关闭

在 vLLM 中部署 Qwen3-32B 模型时,可以通过API 请求参数启动配置来控制其“思考模式”(即是否输出推理过程 ``)的开启与关闭。

一、如何设置思考模式的开启与关闭

1.通过 API 请求参数控制(推荐)

这是最灵活的方式,可以在每次请求时动态控制。关键参数是chat_template_kwargs中的enable_thinking

  • 关闭思考模式:将enable_thinking设为False
  • 开启思考模式:将enable_thinking设为True(默认行为)。
2.通过启动参数控制(全局设置)

在启动 vLLM 服务时,可以通过指定自定义聊天模板来全局禁用思考模式,即使用户在提示中要求思考也会被阻止[。

vllm serve Qwen/Qwen3-32B --chat-template ./qwen3_nonthinking.jinja

注意:此方法需要你准备一个禁用了思考功能的 Jinja 模板文件。

3.软开关:在用户消息中指令

模型本身也支持通过特定的指令来切换模式,这是一种“软开关”。

  • 关闭思考:在用户消息末尾添加/no_think指令[[3]]。
  • 开启思考:在用户消息末尾添加/think指令。

二、调用 vLLM API 的 Python 代码示例

以下示例使用openaiPython 包(需安装openai>=1.0.0)调用本地 vLLM 服务,并演示如何开关思考模式。

fromopenaiimportOpenAI# 1. 初始化客户端,连接到本地 vLLM 服务client=OpenAI(api_key="EMPTY",# vLLM 服务不需要密钥base_url="http://localhost:8000/v1",# vLLM 服务的默认地址)# 2. 准备对话消息messages=[{"role":"user","content":"请解释一下引力波是如何被探测到的。"}]# 3. 发起 API 请求,并控制思考模式try:response=client.chat.completions.create(model="Qwen/Qwen3-32B",# 模型名称需与启动服务时的 `--served-model-name` 一致messages=messages,max_tokens=1024,temperature=0.7,top_p=0.8,# 关键:通过 extra_body 传递 enable_thinking 参数来控制思考模式extra_body={"top_k":20,"chat_template_kwargs":{"enable_thinking":False# 关闭思考模式。改为 True 则开启。}})# 4. 打印模型的回复print("模型回复:")print(response.choices[0].message.content)exceptExceptionase:print(f"请求发生错误:{e}")

三、重要注意事项

  1. 参数位置enable_thinking参数并非 OpenAI 官方 API 标准,因此必须放在extra_body字段中传递。
  2. 与思考内容解析的兼容性:如果你在启动 vLLM 时使用了--reasoning-parser参数来解析思考内容,在 vLLM 0.8.5 版本中,这与enable_thinking=False不兼容。此问题在 vLLM 0.9.0 及更高版本中已得到解决[[5]]。
  3. 模型版本:确保你部署的Qwen3-32B是支持思考能力的版本(通常是InstructThinking后缀的模型)。基础预训练模型可能不具备此功能。

总结:最常用的方法是在 API 调用时,通过extra_body中的chat_template_kwargs: {"enable_thinking": True/False}来精确控制每次请求的思考模式。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2025/12/24 14:50:00

一周上手Cypress:从零构建端到端测试框架实战

为什么选择Cypress?在软件测试领域,端到端测试是确保应用整体稳定性的关键环节,而Cypress作为一款现代化的JavaScript测试框架,以其快速反馈、易于调试和模拟真实用户行为的特点,迅速成为测试从业者的首选工具。本文面…

作者头像 李华
网站建设 2025/12/25 2:47:55

TDengine 数据订阅架构设计与最佳实践

TDengine 数据订阅架构设计与最佳实践 一、设计理念 TDengine 数据订阅(TMQ)是一个高性能、低延迟、高可靠的实时数据流处理系统,核心设计理念是:基于 WAL 的事件流存储 Push-Pull 混合消费模式 自动负载均衡。 核心设计目标 实时性:毫…

作者头像 李华
网站建设 2025/12/24 11:16:51

【深度学习新浪潮】硬件RAID技术:大模型训练与推理的存储性能可靠性双保障

引言 随着大模型参数规模迈入千亿级、训练数据量突破PB级,存储系统成为制约任务效率的核心瓶颈。大模型训练阶段的Checkpoint写入带宽峰值可达200+GBps,推理场景对数据响应延迟的要求精准到毫秒级,同时数据丢失可能导致数周的训练成果付诸东流。在NVMe SSD普及的今天,存储…

作者头像 李华
网站建设 2025/12/24 22:53:32

Wan2.2-T2V-5B模型推理服务支持自动伸缩扩容

Wan2.2-T2V-5B模型推理服务支持自动伸缩扩容 你有没有遇到过这种情况:用户突然爆增,你的视频生成服务瞬间卡死?😅 或者半夜三点还在手动扩容GPU实例,只为应对一场突如其来的营销活动?别担心——现在有个更聪…

作者头像 李华
网站建设 2025/12/26 7:10:31

评估与信任AI测试结果的4个指标

一、引言:从“能用”到“可信”,AI测试的关键拐点   在软件工程领域,AI正在从辅助工具迈向决策中枢。它可以生成测试用例、优化测试路径、自动修复脚本、分析缺陷趋势,甚至基于自然语言理解直接从需求文档生成完整的测试场景。然而,当AI开始影响测试决策时,一个更深层的…

作者头像 李华