news 2026/3/31 20:42:28

ChatOpenAI调用get_num_tokens_from_messages() is not presently implemented for model qwen-plus

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
ChatOpenAI调用get_num_tokens_from_messages() is not presently implemented for model qwen-plus

使用langchain做历史会话管理时报错,代码及报错如下:

from langchain_openai import ChatOpenAI model = ChatOpenAI( base_url="https://dashscope.aliyuncs.com/compatible-mode/v1", api_key="sk-ba5d2f5624d144c98fb196f4013b0e3d", model="qwen-plus", ) from langchain_core.messages import HumanMessage, SystemMessage ,AIMessage from langchain_core.messages import SystemMessage, trim_messages trimmer = trim_messages( max_tokens=65, strategy="last", token_counter=model, include_system=True, allow_partial=False, start_on="human", ) messages = [ SystemMessage(content="you're a good assistant"), HumanMessage(content="hi! I'm bob"), AIMessage(content="hi!"), HumanMessage(content="I like vanilla ice cream"), AIMessage(content="nice"), HumanMessage(content="whats 2 + 2"), AIMessage(content="4"), HumanMessage(content="thanks"), AIMessage(content="no problem!"), HumanMessage(content="having fun?"), AIMessage(content="yes!"), ] trimmer.invoke(messages)

报错

NotImplementedError: get_num_tokens_from_messages() is not presently implemented for model qwen-plus. See https://platform.openai.com/docs/guides/text-generation/managing-tokens for information on how messages are converted to tokens.

原因
根本原因是:LangChain 的 ChatOpenAI 类在使用非 OpenAI 官方模型(比如阿里云的 Qwen 系列)时,默认无法准确计算 token 数量,因为 get_num_tokens_from_messages() 方法依赖于 OpenAI 的 tokenizer。而像 qwen-plus 这样的第三方兼容模型,并没有被 LangChain 内置支持用于 token 计算

解决方法

如果你使用的是较新版本的 LangChain(>=0.2),可以考虑直接使用 Tongyi 官方提供的 LangChain 集成,而不是通过 OpenAI 兼容模式

pip install langchain-community pip install dashscope --upgrade pip install transformers

修改后代码

tongyi_model = ChatTongyi( base_url="https://dashscope.aliyuncs.com/compatible-mode/v1", api_key="sk-ba5d2f5624d144c98fb196f4013b0e3d", model="qwen-plus", ) trimmer = trim_messages( max_tokens=65, strategy="last", token_counter=tongyi_model, include_system=True, allow_partial=False, start_on="human", ) messages = [ SystemMessage(content="you're a good assistant"), HumanMessage(content="hi! I'm bob"), AIMessage(content="hi!"), HumanMessage(content="I like vanilla ice cream"), AIMessage(content="nice"), HumanMessage(content="whats 2 + 2"), AIMessage(content="4"), HumanMessage(content="thanks"), AIMessage(content="no problem!"), HumanMessage(content="having fun?"), AIMessage(content="yes!"), ] trimmer.invoke(messages)

运行后,有警告

/home/runUser/anaconda3/envs/langchain/lib/python3.12/site-packages/langchain_core/language_models/base.py:328: UserWarning: Using fallback GPT-2 tokenizer for token counting. Token counts may be inaccurate for non-GPT-2 models. For accurate counts, use a model-specific method if available. return len(self.get_token_ids(text))

表明 ChatTongyi 虽然被用作 token_counter,但其底层 没有实现准确的 token 计数方法(或未正确注册 Qwen 的 tokenizer),于是 LangChain 回退到 GPT-2 的 tokenizer(对中文和 Qwen 模型不准确)
ChatTongyi 的 get_num_tokens_from_messages 方法仍未被正确实现(或依赖未安装的 tokenizer 包),导致它无法准确计算 Qwen 系列模型的 token 数量,只能回退到不合适的 GPT-2 tokenizer。
🔍 验证:Qwen 模型使用的是 基于 tiktoken 的 cl100k_base 编码(和 GPT-3.5/4 相同),不是 GPT-2 的 gpt2 编码。用 GPT-2 tokenizer 会严重低估 token 数(尤其对英文标点、空格等处理不同)。

处理方法:
增加自定义的计数方法实现准确计数,调整后代码如下:
from langchain_core.messages import SystemMessage, trim_messages
import tiktoken

✅ 准确的 token 计数函数(适用于 Qwen / GPT-3.5 / GPT-4)

def count_tokens_in_messages(messages): """估算 messages 的总 token 数(参考 OpenAI 官方方式)""" encoding = tiktoken.get_encoding("cl100k_base") # Qwen 使用此编码 tokens_per_message = 4 # 每条消息的固定开销(role + 分隔符等) tokens_per_name = -1 # Qwen 不支持 name 字段,可忽略 num_tokens = 0 for message in messages: num_tokens += tokens_per_message num_tokens += len(encoding.encode(message.content)) num_tokens += len(encoding.encode(message.type)) # 'system', 'user', 'assistant' # 注意:Qwen 不支持 'name',所以跳过 num_tokens += 3 # 每轮对话的额外开销(如 <|im_start|> 等) return num_tokens trimmer = trim_messages( max_tokens=65, strategy="last", token_counter=count_tokens_in_messages, include_system=True, allow_partial=False, start_on="human", ) messages = [ SystemMessage(content="you're a good assistant"), HumanMessage(content="hi! I'm bob"), AIMessage(content="hi!"), HumanMessage(content="I like vanilla ice cream"), AIMessage(content="nice"), HumanMessage(content="whats 2 + 2"), AIMessage(content="4"), HumanMessage(content="thanks"), AIMessage(content="no problem!"), HumanMessage(content="having fun?"), AIMessage(content="yes!"), ] trimmer.invoke(messages)

需要提醒的是Qwen的行为更“上下文驱动”而非“指令驱动”。它会优先模仿最近的语言风格,而不是严格遵行system规则

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/3/25 22:54:26

MediaPipe标注数据生成:自动打标签系统部署实战

MediaPipe标注数据生成&#xff1a;自动打标签系统部署实战 1. 引言 1.1 业务场景描述 在计算机视觉与AI驱动的智能应用中&#xff0c;人体姿态估计已成为健身指导、动作识别、虚拟试衣、运动康复等领域的核心技术。然而&#xff0c;构建高质量的人体关键点数据集往往需要大…

作者头像 李华
网站建设 2026/3/31 9:32:27

IQuest-Coder避坑指南:部署常见问题全解析

IQuest-Coder避坑指南&#xff1a;部署常见问题全解析 引言&#xff1a;为什么你的IQuest-Coder部署总是“卡壳”&#xff1f; 你是否在部署 IQuest-Coder-V1-40B-Instruct 时遇到过以下问题&#xff1f; - 模型加载失败&#xff0c;报错 CUDA out of memory - 上下文长度超过…

作者头像 李华
网站建设 2026/3/26 16:11:41

MediaPipe Pose部署效率提升:并发请求处理实战优化

MediaPipe Pose部署效率提升&#xff1a;并发请求处理实战优化 1. 引言&#xff1a;从单请求到高并发的工程挑战 1.1 AI人体骨骼关键点检测的应用价值 AI人体骨骼关键点检测技术在智能健身、动作识别、虚拟试衣、人机交互等领域具有广泛的应用前景。其中&#xff0c;Google推…

作者头像 李华
网站建设 2026/3/31 12:48:09

LeaguePrank英雄联盟美化工具终极使用指南

LeaguePrank英雄联盟美化工具终极使用指南 【免费下载链接】LeaguePrank 项目地址: https://gitcode.com/gh_mirrors/le/LeaguePrank 你是否曾经羡慕过那些拥有炫酷王者段位显示的好友&#xff1f;是否想要为自己的英雄联盟个人资料页换上与众不同的背景&#xff1f;Le…

作者头像 李华
网站建设 2026/3/29 7:01:59

Maven指定加载的类

有的时候需要把单个类文件放到 Linux 环境上去运行&#xff0c;但是又不想引入 SpringBoot 相关的依赖以接口的形式来访问&#xff0c;如下介绍下使用 Maven 指定加载的类&#xff0c;打包到 Linux 环境运行 文章目录准备工作maven-jar-plugin&#xff08;写入 Main-Class&…

作者头像 李华
网站建设 2026/3/26 3:27:11

英雄联盟智能助手终极指南:5大核心功能全面优化你的游戏体验

英雄联盟智能助手终极指南&#xff1a;5大核心功能全面优化你的游戏体验 【免费下载链接】LeagueAkari ✨兴趣使然的&#xff0c;功能全面的英雄联盟工具集。支持战绩查询、自动秒选等功能。基于 LCU API。 项目地址: https://gitcode.com/gh_mirrors/le/LeagueAkari 作…

作者头像 李华