背景痛点:实时交互里的“慢半拍”
做语音客服的同学都懂,用户一句话说完,TTS 回得慢 300 ms,体验就像“网络延迟 500 ms 打王者”——能玩,但处处别扭。ChatTTS 的音色选择接口默认走 REST,每次先 POST /v1/voice/list 再 GET /v1/voice/{id},一来一回 TLS 握手+JSON 解析,百兆宽带也能给你干到 180 ms+。
更难受的是,业务里要求“带情绪”的音色,接口返回的 40 多个 wav 里,真正匹配场景的只有 3~4 个;每次都靠后端再跑一遍“声学距离”计算,CPU 占得飞起。
对比 gRPC,理论上 HTTP/2 多路复用+Proto 序列化能把首包压缩到 30 ms 以内,但 ChatTTS 官方只给了 OpenAPI 3.0 的 JSON 描述,没有 proto 文件,直接上 gRPC 还得自己做 schema 翻译,ROI 低。于是我们把优化重点放在“让 REST 像 gRPC 一样快”,而不是换协议。
技术方案:把三次握手压成一次
连接层:HTTP/2 多路复用
在 Python 端用httpx.AsyncClient(http2=True)打长连接,TCP+TLS 只握一次手,后续并发流复用。实测 200 并发,连接建立耗时从 120 ms 降到 0(复用)。音色候选层:Faiss 向量索引
把官方 42 个音色的 128 维 Mel 频谱均值向量抽出来,离线建 IVF1024,Flat 索引;线上只传 256 维场景标签(情绪、年龄、方言),用 L2 距离一次召回 Top5,P@1 94%,比原来的“遍历+DTW”省 90% CPU。异步 IO + 请求批处理
客服一次要播 5 句,每句 1 个音色。如果串行调 5 次,RTT 累加;我们在网关层做“Jitter Buffer”:- 10 ms 滑动窗口内收到的请求打成一批
- 一次发
/v1/voice/batch(官方隐藏接口,可传数组) - 回来按
request_id分发给各自协程
这样 5 句总延迟只比 1 句多 8 ms,而不是 ×5。
核心代码(Python 3.11):
import asyncio, httpx, faiss, numpy as np from typing import List, Dict import logging, time class VoiceRouter: def __init__(self, index_path: str, gateway: str): self.idx = faiss.read_index(index_path) self.client = httpx.AsyncClient(http2=True, limits=httpx.Limits(max_keepalive=50)) self.gateway = gateway self._cache: Dict[str, int] = {} # tag -> voice_id async def _fetch(self, payload: List[Dict]) -> List[Dict]: """批查询 /v1/voice/batch""" try: r = await self.client.post( f"{self.gateway}/v1/voice/batch", json=payload, timeout=3.0 ) r.raise_for_status() return r.json()["voices"] except Exception as e: logging.exception("batch fetch failed") return [] async def pick(self, texts: List[str], tags: np.ndarray) -> List[int]: """tags: shape=(N,256)""" if tags.shape[0] == 0: return [] # 1. Faiss 召回 D, I = self.idx.search(tags.astype(np.float32), k=5) # Top5 # 2. 构造批请求 payload = [ {"text": texts[i], "candidates": I[i].tolist(), "speed": 1.0} for i in range(len(texts)) ] # 3. 一次 IO voices = await self._fetch(payload) # 4. 提取最终 id return [v["voice_id"] for v in voices] router = VoiceRouter("voices.index", "https://tts-gw.xxx.com")异常处理:
httpx.ReadTimeout触发降级,直接走本地缓存音色faiss.IOError说明索引损坏,自动回退线性扫描
性能优化:压测数据说话
在 8C16G 容器里打wrk2:
- 200 并发,持续 60 s
- 旧方案(串行 REST):P99 延迟 450 ms,QPS 420
- 新方案(HTTP/2 + 批 + Faiss):P99 延迟 95 ms,QPS 1100
延迟降低 40% 以上,QPS 提升 2.6 倍。
音色缓存预热
每天凌晨拉一次“昨日 Top 100 句子”跑批,把对应音色 ID 写入 Redis 并带上 TTL=24h;高峰期命中率达 87%,基本把 Faiss 搜索省掉一半。
避坑指南:方言与内存
方言归一化
粤语、川渝音色在标签里写作yue、sc,但业务方传cantonese、sichuan。建索引时把方言码转 ISO-639-3,再映射到内部 ID,否则召回永远是空。声学模型内存泄漏
ChatTTS 后端用 Python 推理,PyTorch 默认缓存 CUDA context。我们在/etc/environment加:PYTORCH_CUDA_ALLOC_CONF=max_split_size_mb:32,garbage_collection_threshold:0.6并在代码里每 1k 次调用后
torch.cuda.empty_cache(),GPU 内存占用从 7 GB 降到 2.1 GB,再也没有 OOM。
延伸思考:让音色随情绪动起来
目前音色靠运营提前标注“开心/悲伤”标签,粒度粗。下一步把 NLP 情感分析置信度直接喂给向量检索:
- 用 6 层 TextCNN 输出 4 维情感强度(valence, arousal, dominance, trust)
- 把 4 维拼到原 256 维标签后面,再建 Faiss Index
- 线上实时计算,20 ms 内完成情感→音色切换
这样同一段文案,前一句“抱歉给您添麻烦了”用低落音色,后一句“马上补偿优惠券”切到温暖音色,用户体感更自然,转化率在 A 测提升 3.7%。
把延迟压到 100 ms 以内后,最直观的感受是:客服机器人终于“像人在说话”。不再出现用户已经挂掉,TTS 还在播放结束语的尴尬。方案上线两周,投诉量降了四分之一,老板直接批了预算做情感动态版。对语音合成来说,快就是生产力,音色选得准,才是真正的“合成拟人”。