news 2026/2/21 3:23:32

第2章:LangChain大模型工具开发(Agent工具能力)

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
第2章:LangChain大模型工具开发(Agent工具能力)

LangChain_openai实例化大模型

首先我们需要安装LangChain_openai环境

uv add langchain_openai
from langchain_openai import ChatOpenAI import os llm=ChatOpenAI( model="qwen-max", api_key=os.getenv("DASHSCOPE_API_KEY"), base_url="https://dashscope.aliyuncs.com/compatible-mode/v1", stream = True, ) print(llm)

提示词模版

llm=ChatOpenAI( model="qwen-max", api_key=os.getenv("DASHSCOPE_API_KEY"), base_url="https://dashscope.aliyuncs.com/compatible-mode/v1", stream=True, ) for chunk in llm.stream("你是谁?"): print(chunk.content, end="", flush=True)

字符串提示词模版PromptTemplate

适用场景:

  • 用于文本补全模型,输入是纯文本(单字符串);
  • 适用于简单的任务,列如生成一段文本,回答问题或者执行命令。

特点:

  • 输入变量插值:通过{}占位符动态替换变量;
  • 模版格式:支持f-string
  • 输出形式:生成一个完整的字符串作为模型输入。

案例:

from langchain_openai import ChatOpenAI from langchain_core.prompts import PromptTemplate import os llm=ChatOpenAI( model="qwen-max", api_key=os.getenv("DASHSCOPE_API_KEY"), base_url="https://dashscope.aliyuncs.com/compatible-mode/v1", ) template = PromptTemplate.from_template("今天是{something}") prompt = template.format(something="晴天") print(prompt)

聊天提示词模版(ChatPromptTemplate)

from langchain_openai import ChatOpenAI from langchain_core.prompts import ChatPromptTemplate import os llm=ChatOpenAI( model="qwen-max", api_key=os.getenv("DASHSCOPE_API_KEY"), base_url="https://dashscope.aliyuncs.com/compatible-mode/v1", ) template = ChatPromptTemplate.from_messages([ ("system", "你是一位{role}专家,擅长回答{domain}领域的问题,简短回答.50个字"), ("user", "用户提问{question},请给出一个回答"), ] ) prompt = template.format_messages( role = "编程专家", domain = "编程", question = "如何使用langchain进行编程" ) print(prompt) print(llm.invoke( prompt).content)

消息体的抽象和复用

ChatMessagePromptTemplate可以结合ChatPromptTemplate使用,同时对提示词模版和消息体进行抽象和复用

from langchain_openai import ChatOpenAI from langchain_core.prompts import ChatPromptTemplate,SystemMessagePromptTemplate import os llm=ChatOpenAI( model="qwen-max", api_key=os.getenv("DASHSCOPE_API_KEY"), base_url="https://dashscope.aliyuncs.com/compatible-mode/v1", ) system_message = SystemMessagePromptTemplate.from_template( template = "你是一位{role}专家,擅长回答{domain}领域问题,请给出一个回答.50个字以内", role = "system" ) user_message = SystemMessagePromptTemplate.from_template( template = "用户提问{question},请给出一个回答", role = "user" ) template = ChatPromptTemplate.from_messages([ system_message, user_message ] ) prompt = template.format_messages( role = "编程专家", domain = "编程", question = "如何使用langchain进行编程" ) print(prompt) print(llm.invoke( prompt).content)

少样本提示词模版(FewShotPromptTemplate)

使用场景:

  • 用于,在提示中包含示例,帮助模型理解任务;
  • 适用于复杂任务(如翻译,分类,推理),需要通过示例引导模型行为。

特点:

  • 示例嵌入:通过examples参数提供示例输出和输入;
  • 动态示例选择:支持ExampleSelector动态选择最相关的示例;
  • 模版格式:通过包含前缀(Prefix),示例(Examples)和后缀(Suffix)。
from langchain_openai import ChatOpenAI from langchain_core.prompts import ChatPromptTemplate, SystemMessagePromptTemplate, FewShotPromptTemplate, \ PromptTemplate import os llm=ChatOpenAI( model="qwen-max", api_key=os.getenv("DASHSCOPE_API_KEY"), base_url="https://dashscope.aliyuncs.com/compatible-mode/v1", ) example = [ { "input": "good night", "output": "晚上好" }, { "input": "good morning", "output": "早上好" } ] example_template = "输入:{input}\n 输出:{output}" shot_prompt = FewShotPromptTemplate( examples=example, example_prompt=PromptTemplate.from_template(example_template), prefix = "请将输入的英文翻译成中文", suffix = "输入:{text}\n输出:", input_variables = ["text"], ) prompts = shot_prompt.format(text="Thank") print(llm.invoke(prompts).content)

总结对比

常见模版类特性和使用场景对比

子类

使用模版类型

输入类型

主要用途

PromptTemplate

文本补全模型

单字符串

生成单轮文本任务的提示

ChatPromptTemplate

聊天模型

多消息列表

模拟多轮对话或者角色扮演

FewShotPromptTemplate

所以模型

包含示例的模版

通过示例引导模型完成复杂任务

链式调用大模型

我们可以使用管道符:|进行链式调用大模型

from langchain_openai import ChatOpenAI from langchain_core.prompts import ChatPromptTemplate, SystemMessagePromptTemplate, FewShotPromptTemplate, \ PromptTemplate import os llm=ChatOpenAI( model="qwen-max", api_key=os.getenv("DASHSCOPE_API_KEY"), base_url="https://dashscope.aliyuncs.com/compatible-mode/v1", ) example = [ { "input": "good night", "output": "晚上好" }, { "input": "good morning", "output": "早上好" } ] example_template = "输入:{input}\n 输出:{output}" shot_prompt = FewShotPromptTemplate( examples=example, example_prompt=PromptTemplate.from_template(example_template), prefix = "请将输入的英文翻译成中文", suffix = "输入:{text}\n输出:", input_variables = ["text"], ) chain = shot_prompt | llm res = chain.invoke({"text": "Thank"}) print(res.content)

自定义工具全流程开发

import sys import os sys.path.insert(0, os.path.dirname(os.path.dirname(os.path.abspath(__file__)))) from app.bailian.common import chain, shot_prompt, llm from langchain_core.tools import Tool from langchain_core.messages import HumanMessage def add(a,b): return a+b add_tool = Tool( func=add, name="add", description="add two numbers" ) llm_with_tools = llm.bind_tools([add_tool]) chain = shot_prompt | llm_with_tools input_msg = HumanMessage(content="计算1+1的结果") res = chain.stream(input=[input_msg]) for chunk in res: if hasattr(chunk, 'tool_calls') and chunk.tool_calls: for tool_call in chunk.tool_calls: print(tool_call) args = tool_call["args"] print(args) func = tool_call["name"] print(func) if func == "add": print(f"计算结果:{add(float(args['a']), float(args['b']))}")
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/2/6 5:53:45

2025.12.15-2025.12.21:课题分离

🌟 本周完成的3件亮点事情(可具体写过程): R7终于还是跑起来了,自己也克服了内耗。问了jingle,chennuo,包括yunkai,我跟人交流慢慢变多了,也不太担心别人的看法了。这是阿…

作者头像 李华
网站建设 2026/2/20 11:19:56

.NET Core API 性能优化实战:从 100 QPS 到 10,000 QPS 的进化之路

目录 1. 接口性能优化 ✅ 使用异步编程 ✅ 启用响应压缩 2. 数据库访问优化 ✅ 使用连接池 ✅ 减少 N1 查询 ✅ 使用缓存 3. 网络调用优化 ✅ 正确使用 HttpClient ✅ 添加超时 & 重试策略 4. 缓存与限流 ✅ 使用内存缓存 (MemoryCache) ✅ 使用分布式缓存 (R…

作者头像 李华
网站建设 2026/2/8 10:37:42

Eino大模型智能体框架全解析:从原理到部署,助你快速上手AI应用

Eino是字节跳动开源的大模型智能体框架,采用分层架构设计,提供智能体引擎、模型适配器等核心组件,支持多模型集成、工具调用和流式处理。文章通过智能客服和代码审查助手案例展示实际应用,并详细介绍性能优化、错误处理和监控等最…

作者头像 李华
网站建设 2026/2/20 19:06:24

RAG架构的冰山真相——准确率之外的6个关键决策指标

本文深入剖析RAG架构评估中的"冰山现象":供应商过度宣传准确率指标,却隐藏延迟、成本、效率等关键运营数据。文章对比了向量RAG、推理型RAG、GraphRAG和LightRAG等架构的优缺点,指出当前基准测试体系的局限性,并提出了从…

作者头像 李华
网站建设 2026/2/6 6:44:38

非遗手作带货AI视频制作,快速起量(附万能提示词)

大家好,我是AI培训韩老师写在开头我一直坚信“垂直领域AI”是普通人逆袭的黄金组合,AI电商的核心就是用技术降低创作门槛、提升转化效率。今天要分享的是非遗手作类电商的实操玩法——粉丝亲测的账号,靠非遗传承人带货视频,在抖音…

作者头像 李华
网站建设 2026/2/18 17:20:26

深入理解Java内存模型:从诡异Bug到优雅解决

1. 引言:为什么需要内存模型?想象一下这个场景:public class VisibilityProblem {private static boolean ready false;private static int number 0;public static void main(String[] args) {new Thread(() -> {while (!ready) {// 空…

作者头像 李华