背景痛点:当 ChatBot 突然“爆火”
去年双十一,公司把客服 ChatBot 全量开放给 C 端用户,峰值 QPS 从 300 飙到 2800,三个老问题集中爆发:
- 响应延迟:同步调用 NLP 服务,线程池瞬间打满,P99 延迟从 600 ms 涨到 4.2 s。
- 会话状态丢失:Tomcat 原生 Session 粘滞在节点内存,扩容时用户被“踢回首页”。
- 部署复杂度:单体 war 包 200 MB,滚动发布一次 8 min,回滚还要手动清理本地缓存。
一句话:用户激增 = 体验雪崩。下文记录我们如何用“微服务 + 事件驱动”把系统重新救回来。
技术选型:gRPC、WebSocket 还是 REST?
先跑一轮基准测试,机器 4C8G,同机房,payload 统一 1 KB JSON:
| 协议 | 连接方式 | 平均 QPS | P99 延迟 | 备注 |
|---|---|---|---|---|
| REST | 短链接 | 4 200 | 110 ms | 无状态,易缓存 |
| gRPC | HTTP/2 多路复用 | 9 800 | 45 ms | 二进制,省 30% 带宽 |
| WebSocket | 长链接 | 6 500 | 60 ms | 服务端维持 FD,内存高 |
结论:
- 入口网关继续 REST,保持无状态,方便 CDN 缓存静态答案。
- 对话通道升级到 WebSocket,降低 30% 往返 RTT。
- 内部微服务用 gRPC,利用 ProtoBuf 减少序列化开销。
为什么选 Spring Boot + Redis?
- Spring Boot:生态成熟,有 WebSocket 开箱即用的
STOMP支持。 - Redis:单线程模型,天然适合队列与状态机;6.x 以上多 IO 线程,读 QPS 轻松 10 w+。
核心实现一:用 Redis Stream 做消息队列
需求:同一个用户可能同时发多条消息,必须保证“幂等 + 顺序”。
代码示例(Google Java Style):
/** * 将用户消息推入 Redis Stream,并返回消息 ID 用于去重。 * 时间复杂度:O(log N) 其中 N 为 Stream 长度 */ public String addMessage(String userId, String payload) { Map<String, String> kv = Map.of("uid", userId, "body", payload); // 使用 * 让 Redis 自动生成毫秒级序列号 RecordId recordId = redisOps.opsForStream().add(STREAM_KEY, kv); return recordId.getValue(); // 格式 1622000000000-0 } /** * 消费端:按用户维度做幂等,用 Redis SETNX 防重放。 * 时间复杂度:O(1) */ public void handleMessage(MapRecord<String, String, String> record) { String msgId = record.getId().getValue(); String userId = record.getValue().get("uid"); Boolean absent = redisOps.opsForValue() .setIfAbsent("dup:" + msgId, "1", Duration.ofMinutes(5)); if (Boolean.TRUE.equals(absent)) { // 真正处理业务 nlpService.reply(userId, record.getValue().get("body")); } }要点:
- Stream 的 ID自增 ID 天然是“时间 + 序号”,直接当全局去重键。
- 消费组用
XREADGROUP,支持多实例并行抢任务,失败XACK不提交,可重试。
核心实现二:对话状态机与持久化
UML 状态图(PlantUML 语法):
@startuml [*] --> Welcome: 用户连接 Welcome --> Waiting: 发送首次消息 Waiting --> Processing: NLP 开始 Processing --> Waiting: 返回结果 Processing --> Timeout: 10 s 无响应 Timeout --> Waiting: 提示重试 Welcome --> [*]: 断开连接 @enduml持久化方案:
- 状态快照用 Redis Hash,key =
state:{userId},field =currentState、variables(JSON)。 - 每次状态跃迁先写 Redis,再发布
DomainEvent到 Stream,实现“事件溯源”。 - 扩容时新节点通过
XREAD历史游标快速重建内存态,用户无感知。
生产考量一:压测数据
JMeter 场景:1000 并发线程,每线程 10 次对话,每次 3 轮交互。
结果:
- 成功率 99.92%,失败多为 502 网关超时(Gateway 层限流)。
- 平均 RT 520 ms,P99 1.1 s,CPU 峰值 68%,内存 4.2 GB。
- Redis Stream 消费延迟 < 20 ms,未出现消费堆积。
调优经验:
- 网关层加Circuit Breaker/熔断器,阈值 50% 错误率,窗口 10 s。
- WebSocket 节点开 4 个事件循环线程(
EventLoopGroup),与业务线程池隔离。
生产考量二:JWT 安全刷新
ChatBot 会话可能持续 30 min,不能让旧令牌无限续期。
策略:
- Access Token 有效期 10 min,Refresh Token 7 天。
- 用户每次发消息带
Authorization: Bearer <access>,网关统一验签。 - 剩余 2 min 时前端调用
/refresh,后端校验 Refresh Token 后下发新 access,旧令牌加入 Redis 黑名单,防止并发使用。
代码片段:
public void revoke(String jti) { redisOps.opsForValue().set("black:" + jti, "1", Duration.between(Instant.now(), expireAt)); }黑名单查询 O(1),内存占用可忽略。
避坑指南
NLP 冷启动延迟
方案:发布前批量预热,脚本顺序调用高频意图,如“退货流程”“运费咨询”,把模型加载到 GPU;配合Kubernetes 的 preStop hook把旧 Pod 流量摘干净再下线。对话超时处理
对比三种模式:- 客户端轮询:简单,但 5 s 一次加重网关负担。
- 服务端异步回调:需维护回调地址,防火墙常拦。
- WebSocket 心跳 + 服务端推送:选它,超时直接发
{"type":"TIMEOUT"},前端弹窗提示。
线程池隔离
刚开始把 NLP 调用放在业务线程池,结果慢查询把池吃光,WebSocket 连心跳都发不出去。拆出独立Bulkhead/舱壁线程池后,稳态 CPU 降 15%。
代码规范小结
- 全项目用Spotless插件强制 Google Java Style,CI 阶段自动格式化。
- 关键算法写清时间复杂度,如上文
addMessage注释。 - 日志用/slf4j + MDC,每条打印带
userId与traceId,方便链路追踪。
延伸思考:让 LLM 更懂用户意图
传统意图分类靠关键词 + 正则,维护成本高。我们正尝试把 BERT 微调成领域模型:
- 收集 20 w 条客服对话,人工标注 128 个意图。
- 用Chinese-BERT-wwm做继续预训练,再上层加TextCNN微调,F1 从 0.81 提到 0.93。
- 模型导出 ONNX,丢进ONNX Runtime-Java推理,单次耗时 18 ms,比云端 NLP 还快。
下一步准备把LLM + BERT 意图路由结合:先由小模型快速分类,再决定调用哪个垂直大模型,减少 40% Token 消耗。
写在最后
如果你也想亲手搭一套能扛住高并发的 ChatBot,又苦于没有完整 Demo,可以试试我上周刚刷完的从0打造个人豆包实时通话AI动手实验。它把 ASR、LLM、TTS 串成一条低延迟链路,代码全开源,本地 Docker 一把梭就能跑。跟着做完,再把我这篇笔记里的 Redis Stream、状态机、JWT 刷新方案套进去,就能快速得到一个可上生产的微服务骨架。小白也能顺利体验,我实际跑下来挺顺,省了不少踩坑时间。祝你编码愉快,对话永不掉线!