news 2026/4/15 17:01:24

阿里二面:如何保证 Redis 和 MySQL 的数据一致性?还在背“延时双删”的Sleep玄学?教你高性能 + 高可靠的方案

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
阿里二面:如何保证 Redis 和 MySQL 的数据一致性?还在背“延时双删”的Sleep玄学?教你高性能 + 高可靠的方案

写在开头:

我在公众号发了一篇《先更新数据库还是先删除缓存?》的文章,里面和大家聊到了 binlog 兜底方案的实现思路。

文章发出后,有细心的小伙伴后台私信我,指出方案里漏掉了先删除缓存这个关键操作。

这个反馈非常精准!缓存操作的顺序直接决定了用户是否能立刻读到新数据。 所以今天,我特意整理了优化后的最终完整版方案,补全了“先删缓存”的逻辑,并增加了一个轻量级的降级方案,希望能给被这个问题困扰的朋友一个生产级的标准参考。

前天跟一个老同学喝茶,他最近在给阿里某 P7 岗位招人。 他说面了十几个“五年经验”的 Java 开发,一问到“如何保证 Redis 和 MySQL 的数据一致性”,90% 的人都像背书一样回答: “用延时双删策略!先删缓存,再更数据库,休眠 1 秒,再删缓存。”

老同学问:“为什么要休眠 1 秒?这 1 秒是怎么算出来的?如果数据库主从同步延迟了 1.5 秒,你这第 1 秒删了个寂寞?难道你要休眠 2 秒?那接口响应时间(RT)还要不要了?” 对方直接哑火。

说实话,“延时双删”在低并发的小系统里能用,但在大厂高并发场景下,它就是个“缝合怪”方案:既拖慢了性能(阻塞 Sleep),又无法保证 100% 的一致性(不可靠的 Sleep 时间)。

今天咱们就撕开这层遮羞布,看看大厂真正的“高可靠最终一致性”是怎么做的。

一、 为什么 “延时双删” 在高并发场景下不适用?

为了解决“更新数据库期间,旧数据被回填到缓存”的问题,有人发明了“延时双删”:先删缓存 -> Update DB -> Sleep(N) -> 再删缓存

这个方案在生产环境有两个致命硬伤:

硬伤 1:Sleep 多少秒是个玄学

你是 Sleep 500ms 还是 1s?这个时间必须大于“主从同步延迟 + 业务查询耗时”。 但在大促流量洪峰下,MySQL 主从延迟可能瞬间飙升到 3 秒甚至更久。你怎么保证你的 Sleep 时间一定够?只要 Sleep 结束时从库数据还没同步过来,别的线程读到的依然是旧数据,并再次回填到缓存。

硬伤 2:吞吐量自杀

你可是高并发系统啊!为了数据一致性,强行让业务线程Thread.sleep几百毫秒? 这意味着你的接口响应时间(RT)直接增加了几百毫秒,Tomcat 线程池瞬间被占满,吞吐量(QPS)腰斩。在秒杀场景下,这种代码就是给 CPU 递刀子。

二、 生产级的标准答案:Cache Aside + Binlog 异步兜底

在大厂的核心链路,我们追求的是“低延迟的最终一致性”。 既然“第二次删除”是为了防止脏数据回填,那为什么非要在业务线程里傻等?把这个“等待”和“删除”的动作剥离出来,交给异步组件去做,才是正解。

真正的架构方案:

  1. App 侧(保障实时性):先删除缓存,再更新数据库。
    • 注意:保留“先删缓存”,是为了让后续的读请求直接打到 DB 拿最新数据,防止用户看到旧值。
    • 防坑指南:对于热点 Key,删除缓存后可能会引发“缓存击穿”导致 DB 压力骤增。建议配合分布式锁或逻辑过期策略来保护 DB,而不是在业务代码里搞复杂的“回写旧值”。
  1. MySQL 侧:数据变更产生 Binlog。
  2. 中间件侧(保障最终一致性):Canal 监听 Binlog -> 投递到 MQ -> 消费者收到消息。
  3. Consumer 侧(兜底清理):消费者收到消息后,执行第二次删除 Redis。

这套方案是如何降维打击“双删”的?

  • 解耦(彻底去掉了 Sleep)

    业务线程执行完Update DB直接返回成功,不需要留下来陪跑。接口性能拉满。

  • 可靠性(MQ 重试机制)

    如果 Redis 挂了,或者删除失败,MQ 的 ACK 机制会保证消息不断重试,直到删除成功为止。而“双删”方案里,如果第二次删除失败了,那缓存里永远是脏数据。

  • 解决主从延迟(自适应)

    MQ 的消息传输本身就有天然的“延时”。如果担心主从延迟极高,可以在 Consumer 端配置“消费延迟”(比如 RocketMQ 的 Level 3),或者让 Consumer 查不到数据再删。这比在业务代码里硬写Sleep(1000)优雅一万倍。

  • 补充兜底策略

    针对 Canal 宕机、MQ 消息堆积等异常场景,务必给缓存加上过期时间(TTL)。即使异步删除彻底失败,脏数据也会在 TTL 到期后自动失效,这是最后一道防线。

三、 如果面试官问“Binlog 方案太重了怎么办?”

有些面试官会杠:“引入 Canal 和 MQ,系统复杂度太高了,中小公司玩不起怎么办?”

这时候你要甩出“轻量级线程池延迟删除”方案:如果不上一整套 Binlog 中间件,可以在 Update DB 成功后,往当前服务的“延迟消息队列”(可以是基于内存的 DelayQueue,或者 RocketMQ 的延迟消息)扔一个任务。 任务内容:{key: "item_100", delay: 1000ms, retry: 3}。 由后台线程池去执行这个“第二次删除”。

注意事项:延迟队列虽然可以基于内存(DelayQueue),但在生产环境强烈建议使用RocketMQ/Kafka 延迟消息Redisson 延迟队列。 因为基于内存的队列一旦服务重启,任务就丢了,会导致缓存永远删不掉。

四、 面试标准答案模板(建议背诵)

下次面试官再问“一致性”,别上来就背双删,试试这个高阶回答:

  1. 破题(否定野路子)

    “面试官,在生产环境中,我们一般不使用‘延时双删’。因为它强依赖Sleep时间,不仅严重拖累接口吞吐量,而且在数据库主从延迟抖动时,依然无法保证一致性。”

  2. 抛出方案(亮肌肉)

    “我们采用的是‘Cache Aside Pattern 的增强版’,也就是先删缓存 + Update DB + 基于 Binlog 的异步兜底删除。 业务线程先删缓存保证数据的实时性,然后更新 DB。 至于‘防止脏数据回填’的逻辑,我们剥离给 Canal + MQ 去做。Canal 监听 Binlog 变动投递给 MQ,消费者负责进行‘第二次删除’。”

  3. 升华价值(讲收益)

    “这样做有两个核心优势: 第一是高性能,业务线程完全不需要阻塞等待,响应极快; 第二是高可靠,利用 MQ 的重试机制,即使 Redis 抖动或删除失败,也能通过重试保证缓存最终一定被清理,真正实现了‘最终一致性’。当然,该方案的核心是用架构复杂度换取高性能,在中小系统如果不具备 Canal 条件,我们也会降级为‘轻量级延迟消息’方案,兼顾不同业务体量的需求。”

写在最后

架构设计的本质是权衡(Trade-off)。 “延时双删”是用性能换一致性(而且还换得不彻底)。 “Binlog 异步删”是用架构复杂度(引入 MQ)换取了高性能 + 高可靠。 作为 P7 架构师,我们永远选择后者。

https://mp.weixin.qq.com/s/2CcZZctJ2_kcokhMnNhY8A

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/15 10:27:19

基于分布式驱动电动汽车的车辆状态估计探索

基于分布式驱动电动汽车的车辆状态估计,采用的是容积卡尔曼(ckf)观测器,可估计包括纵向速度,质心侧偏角,横摆角速度,侧倾角四个状态。 模型中第一个模块是四轮驱动电机;第二个模块是…

作者头像 李华
网站建设 2026/4/6 15:39:11

AI:我裂开了!现在的大模型评估究竟有多变态?

本文视频:https://bilibili.com/video/BV1HnB7BjEAN/ 年底的 AI 圈子很热闹,可以说是神仙打架:Gemini 3.0、Claude Opus 4.5、GPT 5.2 … 这三大全球最顶级的模型,几乎在同一时间甩出了自己的“王炸”。 今天这家说自己代码能力…

作者头像 李华
网站建设 2026/4/12 15:57:12

PS学习基础笔记

第一节课一、 Ps:位图 Ai:矢量图 id:排版ctrlK:界面设置 二、 1、esc键 直接 进入 2、工具栏右击->显示工具 3、窗口->复位基本功能 4、新建画布:Ctrln 5、像素:一个个小格子,缩写px(用在…

作者头像 李华
网站建设 2026/4/4 6:32:11

dpdk-testpmd在超过128核双numa场景启动失败问题

问题描述: dpdk-testpmd在超过128核双numa场景中,启动失败问题,问题日志如下,扫描内存的时候,无法使用numa1的内存。 ... EAL: Detected lcore 0 as core 0 on socket 0 EAL: Detected lcore 127 as core 215 on socke…

作者头像 李华
网站建设 2026/4/11 13:06:35

pdb设置内存参数

查看pdb设置的参数 set linesize 120 column pdb_name format a10 column name format a30 column value$ format a30select ps.db_uniq_name,ps.pdb_uid,p.name as pdb_name,ps.name,ps.value$ from pdb_spfile$ psjoin v$pdbs p on ps.pdb_uid p.con_uid order by 1, 2, …

作者头像 李华
网站建设 2026/4/15 16:52:27

索引的原理

一、索引的核心思想:空间换时间代价:索引需要占用额外的存储空间,并且会在数据增删改时引入额外的维护开销。收益:通过预先建立并维护一个更小的、针对性更强的数据结构,使得查询时能以远快于遍历全表的速度定位到目标…

作者头像 李华