公关众注号 :IT安装手册
MySQL 避坑指南系列·第④篇(完结篇),共 4 篇。
前三篇依次覆盖了安装配置、Docker 部署、SQL 性能。本篇是最后一篇,也是代价最重的一篇——生产环境的坑,踩一次可能就是数据丢失或长时间服务中断。
生产运维的坑和前几篇有本质区别:安装配置的坑最多是重新装,SQL 性能的坑最多是接口变慢,而生产运维的坑踩了可能是数据永久丢失。本篇 6 个坑,建议一边看一边对照自己的生产环境逐项排查。
环境说明
| 项目 | 版本 |
|---|---|
| MySQL | 8.0.x(部分适用 5.7) |
| 操作系统 | Ubuntu 20.04/22.04、CentOS 7/8 |
| Docker | 24.x+(Docker 部署场景适用) |
坑 1:没开 binlog,数据误删无法恢复
现象:DELETE FROM users,手滑没加WHERE,几十万条数据消失。没有 binlog,没有可用的恢复手段,只能从上一次全量备份恢复,备份点之后的数据全部丢失。
根本原因:binlog(二进制日志)默认可能未开启,没有它就无法做基于时间点的恢复(PITR)。
解决方案:生产必须开启 binlog,修改配置文件(/etc/mysql/mysql.conf.d/mysqld.cnf):
[mysqld] # 开启 binlog log_bin = /var/log/mysql/mysql-bin.log binlog_format = ROW # 必须用 ROW,记录行级变更,最安全 server_id = 1 # 每台实例唯一,主从复制必须 # MySQL 5.7:binlog 保留天数 expire_logs_days = 7 # MySQL 8.0:改为秒数(7 天 = 604800 秒) # binlog_expire_logs_seconds = 604800# 验证 binlog 已开启 mysql -uroot -p -e "SHOW VARIABLES LIKE 'log_bin';" # log_bin = ON ← 正确有了 binlog,误操作后的恢复流程:
# 第一步:确定误操作发生的时间点 # 第二步:找到对应的 binlog 文件 mysql -uroot -p -e "SHOW MASTER LOGS;" # 第三步:导出特定时间段的操作记录 mysqlbinlog \ --start-datetime="2024-01-15 14:00:00" \ --stop-datetime="2024-01-15 14:29:00" \ /var/log/mysql/mysql-bin.000001 > recovery.sql # 第四步:找到误操作语句的 position,手动删掉那段 SQL # 第五步:在测试环境验证恢复脚本后,在生产执行 mysql -uroot -p your_db < recovery.sql⚠️
ROW格式的 binlog 要结合mysqlbinlog --base64-output=DECODE-ROWS --verbose才能直接阅读。也可以用binlog2sql工具自动生成反向 SQL(UNDO SQL),直接执行就能回滚。
坑 2:备份有了,但从没验证过能不能恢复
现象:每天都有备份任务在跑,出事才发现:① 备份文件不完整;② 备份的数据库已经和当前不同步;③mysqldump的备份文件 100GB,恢复要 6 小时,远超业务能接受的 RTO(恢复时间目标)。
根本原因:备份策略设计了,但从来没演练过恢复流程。备份好不好用,只有恢复的时候才知道,出事的时候验证就太晚了。
解决方案一:改用 xtrabackup 做物理备份(速度快 10 倍以上)
# 安装 sudo apt install percona-xtrabackup-80 # 全量备份(物理文件拷贝,不锁表,速度极快) xtrabackup --backup \ --user=root \ --password=YourPassword \ --target-dir=/backup/$(date +%Y%m%d) # 准备备份(使备份文件处于一致状态) xtrabackup --prepare \ --target-dir=/backup/20240115 # 恢复(先停 MySQL) systemctl stop mysql xtrabackup --copy-back --target-dir=/backup/20240115 chown -R mysql:mysql /var/lib/mysql systemctl start mysql解决方案二:生产备份策略(分层设计)
每天 00:00 → xtrabackup 全量备份 实时 → binlog 持续归档到 OSS/S3 每周 → 验证一次恢复流程(在测试环境执行)# 定期验证备份完整性的脚本(加入 crontab) #!/bin/bash # 从最新备份恢复到测试实例,验证表数量和行数 BACKUP_DIR=/backup/$(date +%Y%m%d -d yesterday) # ... 执行恢复、验证、发告警RTO/RPO 是选备份方案的依据:
- RPO(数据丢失容忍):能接受丢失多少分钟的数据?
- RTO(恢复时间容忍):故障后最多多少小时必须恢复?
mysqldump:操作简单,适合小库(< 10GB);大库 RTO 太长,不推荐。xtrabackup:适合大库,恢复快,生产首选。
binlog + 全量备份:满足分钟级 RPO。
坑 3:Docker 里 MySQL 没限内存,OOM 后整机崩溃
现象:MySQL 容器内存占用持续增长,最终触发宿主机 OOM killer,不仅 MySQL 容器被 kill,同宿主机上的其他服务也可能受牵连,整个节点不稳定。
根本原因:Docker 容器默认没有内存限制,可以无上限使用宿主机内存;MySQL 的 InnoDB 缓冲池也没有限制,会尽量占用可用内存。
解决方案:在 Compose 文件里显式设置资源限制,并同步调整 MySQL 配置:
# docker-compose.prod.yml services: mysql: image: mysql:8.0.36 restart: unless-stopped deploy: resources: limits: cpus: "2.0" memory: 4G # 硬上限 reservations: cpus: "1.0" memory: 2G # 保证分配# my.cnf:InnoDB 缓冲池设为可用内存的 70%~75% # 容器限制 4G,则配置 3G [mysqld] innodb_buffer_pool_size = 3G innodb_buffer_pool_instances = 4 # 每个 instance 建议至少 1G# 实时查看容器资源使用情况 docker stats mysql容器名 # 查看 MySQL 内存详细使用(8.0 支持) SELECT * FROM sys.memory_global_by_current_bytes LIMIT 10;坑 4:慢查询日志没开,性能问题无法溯源
现象:线上偶发性卡顿,用户反馈接口超时,但 DBA 和开发都不知道是哪条 SQL 慢,全靠猜。
根本原因:慢查询日志默认关闭,没有任何机制记录哪些 SQL 超时。
解决方案:开启慢查询日志:
[mysqld] slow_query_log = 1 slow_query_log_file = /var/log/mysql/slow.log long_query_time = 1 # 超过 1 秒记录(生产建议 0.5~1 秒) log_queries_not_using_indexes = 0 # 生产谨慎开,可能造成日志暴涨# 不重启动态开启(立即生效) SET GLOBAL slow_query_log = 1; SET GLOBAL long_query_time = 1; # 用 mysqldumpslow 分析:找出最慢的 10 条 SQL mysqldumpslow -s t -t 10 /var/log/mysql/slow.log # 更强大的工具:pt-query-digest(Percona Toolkit) pt-query-digest /var/log/mysql/slow.log \ --limit 10 \ --output report慢查询分析看什么:
# mysqldumpslow 输出示例 Count: 523 # 这条 SQL 出现了 523 次 Time=5.23s # 平均耗时 5.23 秒 Lock=0.00s # 锁等待时间 Rows=10245.0 # 平均返回行数Count高但Time不高 → 高频小查询,考虑缓存层;Time高 → 直接优化 SQL 或加索引。
坑 5:主从复制延迟,读从库读到过期数据
现象:写入成功后立刻查询,从库返回的还是旧数据;监控显示Seconds_Behind_Master持续增长,从库越来越慢追不上主库。
根本原因:MySQL 默认异步复制,主库写入成功就返回,从库异步接收并回放 binlog,高并发或大事务情况下延迟可达几秒甚至几分钟。
解决方案:
① 定位和监控延迟
-- 从库上执行 SHOW SLAVE STATUS\G -- MySQL 5.x/7.x SHOW REPLICA STATUS\G -- MySQL 8.0+ -- 关注这几个字段: -- Seconds_Behind_Master: 当前延迟秒数 -- Relay_Log_Space: relay log 积压大小 -- Slave_SQL_Running: 是否为 Yes(否则复制断了)② 开启并行复制(减少延迟)
# 从库 my.cnf [mysqld] slave_parallel_workers = 4 # 并行回放线程数(根据 CPU 核心数调整) slave_parallel_type = LOGICAL_CLOCK # MySQL 5.7+,8.0 推荐 slave_preserve_commit_order = 1 # 保持事务提交顺序一致性③ 业务层应对策略
# 策略一:写后读强制走主库 # 写操作完成后,把"需要强一致读"的标记存到 session # 下一次读请求检查标记,决定走主库还是从库 # 策略二:带重试的读从库 import time def read_with_retry(query, max_retries=3): for i in range(max_retries): result = slave_db.query(query) if result: # 读到了有效数据 return result time.sleep(0.1 * (i + 1)) # 等 100ms、200ms、300ms 后重试 return master_db.query(query) # 最终走主库兜底坑 6:连接未加 SSL/TLS,账号密码网络明文传输
现象:业务服务器和数据库服务器跨机房或跨公网通信,账号密码、查询语句、查询结果全部明文传输,安全合规审计不通过,甚至账号密码在内网被监听后导致数据泄漏。
根本原因:MySQL 默认不强制 SSL/TLS,连接以明文方式传输。
解决方案:
-- 检查当前 SSL 状态 SHOW VARIABLES LIKE '%ssl%'; SHOW STATUS LIKE 'Ssl_cipher'; -- 如果有值,说明当前连接用了 SSL -- 强制指定账号必须使用 SSL 连接 ALTER USER 'app_user'@'%' REQUIRE SSL; -- 或者要求 X509 双向认证(更严格) ALTER USER 'app_user'@'%' REQUIRE X509;# 客户端连接时指定 SSL mysql -uapp_user -p \ --ssl-mode=REQUIRED \ --ssl-ca=/etc/mysql/ssl/ca.pem \ -h db_hostDocker 部署时挂载 SSL 证书:
services: mysql: volumes: - ./ssl/ca.pem:/etc/mysql/ssl/ca.pem:ro - ./ssl/server-cert.pem:/etc/mysql/ssl/server-cert.pem:ro - ./ssl/server-key.pem:/etc/mysql/ssl/server-key.pem:ro command: > --ssl-ca=/etc/mysql/ssl/ca.pem --ssl-cert=/etc/mysql/ssl/server-cert.pem --ssl-key=/etc/mysql/ssl/server-key.pem --require-secure-transport=ON如果两台服务器在同一内网且有其他网络隔离措施,SSL 的优先级可以适当降低。但只要有跨公网或跨机房通信,SSL 是必须的。
全系列快速检查总清单
本系列 4 篇内容的核心检查项汇总,建议存入团队 Runbook,每次新环境上线前过一遍:
基础安装与配置
x字符集是utf8mb4,而不是utf8或latin1
x已确认 MySQL 实际读取的配置文件路径
xlower_case_table_names在初始化前已按需设置
xmax_connections已根据并发量调整
x已删除匿名用户和test数据库
x已创建应用专用账号,未直接使用 root
Docker 部署
xYAML 缩进全是空格,已用yamllint验证
x环境变量值已加引号
x密码通过.env管理,未硬编码,.env已加入.gitignore
x已挂载命名 Volume 持久化数据
x应用依赖使用condition: service_healthy
x健康检查正确(docker ps显示healthy)
x挂载的配置文件权限是644
x多环境使用 Override 文件分层管理
SQL 性能
x所有WHERE条件列有索引(EXPLAIN type不是ALL)
x查询指定具体列,无SELECT *
x代码中没有循环内执行 SQL(N+1 查询)
x事务代码有 try/catch/finally,保证提交或回滚
xMySQL 版本已升级到 8.0(规避 AUTO_INCREMENT 复用)
生产运维
xbinlog 已开启,格式为ROW
x有定期备份计划(xtrabackup 全量 + binlog 归档)
x备份恢复流程已在测试环境演练过
xDocker 容器已设置 CPU/内存资源限制
x慢查询日志已开启(long_query_time ≤ 1)
x生产环境设置了restart: unless-stopped
x跨网络通信场景已配置 SSL
x已部署监控告警(Prometheus + mysqld_exporter 或云厂商监控)
系列总结
回顾这 4 篇,MySQL 的坑按严重程度可以分三层:
| 层级 | 典型坑 | 后果 |
|---|---|---|
| 入门坑 | 字符集、配置文件读错 | 功能异常,重配即可 |
| 开发坑 | 没索引、没连接池、Docker 数据不持久化 | 性能问题或数据丢失(量小) |
| 生产坑 | 没 binlog、没备份演练、无资源限制 | 数据永久丢失、长时间中断 |
大多数坑不是因为技术太难,而是因为"能跑起来"和"生产级别"之间有一大段距离,很多配置在开发阶段感知不到问题,但早晚要还。希望这个系列能帮你把该踩的坑提前看一遍,少在生产上出事故。