背景:传统客服的“三宗罪”
去年双十一,公司老客服系统直接“罢工”:
- 高峰期平均响应 4.8 s,用户不停刷“人工客服”
- 规则引擎把“我要退货”和“我要换货”当成同一意图,误触发率 27%
- 多轮对话一旦跨 3 轮,上下文就“失忆”,用户得重复订单号
痛定思痛,我们决定把大模型搬上生产线,目标只有一个:让用户在 1 s 内拿到靠谱答案。
技术选型:Fine-tune?Prompt?还是 RAG?
团队用 2 周跑了三组对照实验,数据如下(单卡 A100,QPS 200):
| 方案 | 意图准确率 | 首 token 延迟 | 每 1k 次调用成本 |
|---|---|---|---|
| 全量 Fine-tune Llama3-8B | 94.2 % | 680 ms | 0.18 $ |
| Prompt Engineering(4k 上下文) | 86.5 % | 320 ms | 0.04 $ |
| RAG + 量化 Llama3-8B(本方案) | 92.7 % | 280 ms | 0.05 $ |
结论很直观:
- Fine-tune 太贵,且一旦业务口径变,得重新炼一次
- 纯 Prompt 省钱但“脑容量”不够,容易胡编
- RAG 把知识外挂给模型,兼顾精度与成本,于是拍板:Llama3 + LangChain + 自研向量缓存。
核心实现:FastAPI 异步骨架
先搭一个能扛高并发的服务骨架,再往里塞模型。
1. 工程目录一览
smart_cs/ ├─ api/ │ └─ main.py ├─ model/ │ ├─ loader.py │ └─ generator.py ├─ retriever/ │ ├─ embedding.py │ └─ milvus_cli.py └─ tests/2. 异步入口(PEP8 带类型标注)
# api/main.py from fastapi import FastAPI, Request from pydantic import BaseModel from model.generator import llm_generate from retriever.milvus_cli import cached_search app = FastAPI(title="SmartCS", version="1.0.0") class Query(BaseModel): uid: str text: prompt @app.post("/chat") async def chat(q: Query, req: Request) -> dict: """ 异步聊天接口,带向量缓存。 """ # 1. 检索 top5 知识片 docs = await cached_search(q.text, top_k=5) # 2. 构造 Prompt prompt = build_rag_prompt(q.text, docs) # 3. 流式生成 answer = await llm_generate(prompt) return {"answer": answer, "uid": q.uid}3. 量化模型加载(4bit 加速)
# model/loader.py from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig import torch def load_llama3_int4(model_id: str = "meta-llama/Llama-3-8b-chat-hf"): """ 返回量化后的模型与分词器,显存 < 6 GB。 """ bnb_cfg = BitsAndBytesConfig( load_in_4bit=True, bnb_4bit_compute_dtype=torch.float16, bnb_4bit_use_double_quant=True, ) tok = AutoTokenizer.from_pretrained(model_id, use_fast=True) model = AutoModelForCausalLM.from_pretrained( model_id, quantization_config=bnb_cfg, device_map="auto", torch_dtype=torch.float16, ) return tok, model4. 带缓存的向量检索
# retriever/milvus_cli.py import redis.asyncio as redis from langchain.vectorstores import Milvus from langchain.embeddings import HuggingFaceEmbeddings EMBED = HuggingFaceEmbeddings(model_name="BAAI/bge-small-zh") REDIS = redis.from_url("redis://localhost:6379/0", decode_responses=True) async def cached_search(query: str, top_k: int = 5) -> list[str]: """ 先读 Redis 缓存,缓存未命中再查 Milvus,TTL 10 min。 """ key = f"vec:{hashlib.md5(query.encode()).hexdigest()}" if cached := await REDIS.get(key): return json.loads(cached) docs = Milvus.similarity_search(query, k=top_k) await REDIS.setex(key, 600, json.dumps(docs)) return docs性能优化:让 280 ms 再砍 40 %
1. 模型剪枝(SparseGPT)
- 对 attention 层做 20 % 稀疏化,实测首 token 延迟从 280 ms 降到 170 ms,下降 39 %
- 精度掉 0.8 %,在业务可接受范围
2. Redis 共享对话状态
- 把多轮对话的
history用 Redis List 存储,key 为uid:dialog - 水平扩展 8 个 pod 也能无缝接力,解决“第 3 轮失忆”问题
3. 流式输出 + 前端分段渲染
- 后端
StreamingResponse,前端拿到首包就渲染,用户体感延迟再降 30 %
避坑指南:生产环境血泪史
敏感信息脱敏
- 正则先行:手机、身份证、银行卡 3 类数字串统一掩码
- 后置审核:调用阿里云内容安全 API,置信度 < 0.85 的直接降权,转人工座席
模型幻觉
- Prompt 末尾加一句:“若知识库未提及,请回复‘暂无相关信息’,切勿编造”
- 温度系数 0.3 + top-p 0.85,实测幻觉率从 7 % 降到 1.2 %
冷启动流量预热
- 上线前 3 天,用 5 % 真实流量灰度,收集 5k 条 badcase 微调 embedding
- 上线当天再切 100 %,客服中心电话量下降 42 %,无重大投诉
完整可运行片段(核心 50 行)
把下面文件直接docker build -t smartcs .就能起服务,镜像 2.1 GB,GPU 显存 5.4 GB。
FROM nvidia/cuda:12.1-runtime-ubuntu22.04 RUN apt update && apt install -y python3-pip COPY requirements.txt . RUN pip3 install -r requirements.txt COPY . /app WORKDIR /app CMD ["uvicorn", "api.main:app", "--host", "0.0.0.0", "--port", "8000"]requirements.txt 仅 6 行:
torch>=2.1 transformers>=4.40 bitsandbytes langchain fastapi redis结尾:开放讨论
如何平衡模型精度与响应速度?
是继续剪枝、蒸馏,还是干脆上更小底座模型?
欢迎在 GitHub 仓库 提 Issue 分享你的调优方案,我们会定期合并 benchmark,一起把客服体验卷到“秒回”级别。