最近在技术群里看到很多小伙伴在问RustFS集群部署的问题,今天我就把自己在生产环境踩坑总结的集群方案分享给大家。别看是分布式架构,其实比想象中简单多了!
为什么需要集群部署?
先讲个真实案例:前段时间群里有个小伙伴说他们公司单机版RustFS因为硬盘故障导致服务中断6小时,损失惨重。为了安慰这位小伙伴,我花了一周时间研究出了这套高可用方案,现在就算挂掉2个节点都能正常服务!
集群架构设计
最小生产集群(4节点推荐)
┌─────────────────┐ │ 负载均衡器 │ │ (Nginx/Haproxy) │ └─────────────────┘ ↓ ┌───────┬───────┬───────┬───────┐ │ 节点1 │ 节点2 │ 节点3 │ 节点4 │ │ 数据+元数据 │数据+元数据│纯数据节点│纯数据节点│ └───────┴───────┴───────┴───────┘为什么选4节点?
满足纠删码最低要求(4+2模式)
成本与性能的最佳平衡
故障容忍度高(可同时挂2个节点)
环境准备
服务器配置(最低要求)
# 4台CentOS 7.9服务器 节点1:10.0.1.11 (元数据+数据) 节点2:10.0.1.12 (元数据+数据) 节点3:10.0.1.13 (数据节点) 节点4:10.0.1.14 (数据节点) # 每台服务器配置 CPU:4核以上 内存:8GB以上 磁盘:100GB系统盘 + 500GB数据盘(SSD推荐) 网络:千兆内网互通系统优化配置
# 所有节点执行 echo "net.core.somaxconn = 1024" >> /etc/sysctl.conf echo "net.ipv4.tcp_max_syn_backlog = 1024" >> /etc/sysctl.conf echo "vm.swappiness = 10" >> /etc/sysctl.conf sysctl -p # 优化磁盘IO echo "deadline" > /sys/block/sdb/queue/scheduler集群部署实战
1. 创建共享配置文件
先准备一个统一的docker-compose.cluster.yml:
version: '3.8' services: rustfs: image: rustfs/rustfs:1.0.0-alpha.69 container_name: rustfs restart: unless-stopped network_mode: "host" volumes: - /data/rustfs/data:/data - /data/rustfs/logs:/logs - /etc/localtime:/etc/localtime:ro environment: - RUSTFS_CLUSTER_ENABLED=true - RUSTFS_CLUSTER_NAME=rustfs-prod - RUSTFS_API_ENDPOINT=http://10.0.1.11:9000 - RUSTFS_ACCESS_KEY=prod_access_key_2024 - RUSTFS_SECRET_KEY=your_super_secure_secret_key_here - RUSTFS_BROWSER=on deploy: resources: limits: memory: 4G cpus: '2.0'2. 节点差异化配置
节点1(10.0.1.11)配置:
# 在共享配置基础上添加 environment: - RUSTFS_CLUSTER_MASTER=true - RUSTFS_METADATA_ENDPOINTS=10.0.1.11:9000,10.0.1.12:9000 - RUSTFS_DATA_ENDPOINTS=10.0.1.11:9000,10.0.1.12:9000,10.0.1.13:9000,10.0.1.14:9000节点2(10.0.1.12)配置:
environment: - RUSTFS_CLUSTER_BACKUP_MASTER=true - RUSTFS_METADATA_ENDPOINTS=10.0.1.11:9000,10.0.1.12:9000 - RUSTFS_DATA_ENDPOINTS=10.0.1.11:9000,10.0.1.12:9000,10.0.1.13:9000,10.0.1.14:9000数据节点(10.0.1.13/14)配置:
environment: - RUSTFS_DATA_NODE=true - RUSTFS_METADATA_ENDPOINTS=10.0.1.11:9000,10.0.1.12:90003. 初始化集群部署脚本
创建deploy-cluster.sh:
#!/bin/bash set -e NODES=("10.0.1.11" "10.0.1.12" "10.0.1.13" "10.0.1.14") MASTER_NODE="10.0.1.11" echo "开始部署RustFS集群..." # 1. 准备数据目录 for node in "${NODES[@]}"; do echo "准备节点: $node" ssh root@$node "mkdir -p /data/rustfs/{data,logs,config} && chown -R 10001:10001 /data/rustfs" done # 2. 分发配置文件 scp docker-compose.cluster.yml root@$MASTER_NODE:/data/rustfs/ scp docker-compose.data.yml root@10.0.1.13:/data/rustfs/docker-compose.yml scp docker-compose.data.yml root@10.0.1.14:/data/rustfs/docker-compose.yml # 3. 按顺序启动节点 echo "启动元数据节点..." ssh root@10.0.1.11 "cd /data/rustfs && docker-compose up -d" sleep 10 ssh root@10.0.1.12 "cd /data/rustfs && docker-compose up -d" sleep 10 echo "启动数据节点..." ssh root@10.0.1.13 "cd /data/rustfs && docker-compose up -d" ssh root@10.0.1.14 "cd /data/rustfs && docker-compose up -d" # 4. 等待集群就绪 echo "等待集群初始化..." sleep 30 # 5. 验证集群状态 echo "检查集群状态..." curl -f http://$MASTER_NODE:9000/minio/cluster/status echo " RustFS集群部署完成!"负载均衡配置
Nginx负载均衡
upstream rustfs_cluster { server 10.0.1.11:9000 max_fails=3 fail_timeout=30s; server 10.0.1.12:9000 max_fails=3 fail_timeout=30s; server 10.0.1.13:9000 max_fails=3 fail_timeout=30s; server 10.0.1.14:9000 max_fails=3 fail_timeout=30s; # 会话保持(重要!) ip_hash; } server { listen 80; server_name rustfs.yourcompany.com; location / { proxy_pass http://rustfs_cluster; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_connect_timeout 30s; proxy_read_timeout 300s; } # 健康检查 location /minio/health/live { proxy_pass http://rustfs_cluster; access_log off; } }数据安全与备份
纠删码配置
# 在master节点配置 environment: - RUSTFS_ERASURE_CODING=4:2 # 4个数据块,2个校验块 - RUSTFS_DATA_SHARDS=4 - RUSTFS_PARITY_SHARDS=2自动备份策略
创建cluster-backup.sh:
#!/bin/bash # 集群元数据备份 BACKUP_DIR="/backup/rustfs/$(date +%Y%m%d)" mkdir -p $BACKUP_DIR # 1. 备份元数据节点配置 for node in "10.0.1.11" "10.0.1.12"; do ssh root@$node "docker exec rustfs tar czf /tmp/metadata.tar.gz /data/.metadata" scp root@$node:/tmp/metadata.tar.gz $BACKUP_DIR/metadata_${node}.tar.gz done # 2. 备份负载均衡配置 cp /etc/nginx/conf.d/rustfs.conf $BACKUP_DIR/ # 3. 上传到远程存储(可选) rclone copy $BACKUP_DIR oss:rustfs-backup/ --progress echo "备份完成: $BACKUP_DIR"监控告警体系
Prometheus监控配置
# prometheus.yml scrape_configs: - job_name: 'rustfs-cluster' static_configs: - targets: - '10.0.1.11:9000' - '10.0.1.12:9000' - '10.0.1.13:9000' - '10.0.1.14:9000' metrics_path: /minio/metrics/clusterGrafana监控看板
关键监控指标:
节点在线状态
存储空间使用率
请求延迟分布
错误率统计
故障恢复演练
模拟节点故障恢复
# 1. 停止一个数据节点 ssh root@10.0.1.13 "docker-compose down" # 2. 观察集群状态(应该自动切换到其他节点) curl http://10.0.1.11:9000/minio/cluster/status # 3. 恢复节点 ssh root@10.0.1.13 "docker-compose up -d" # 4. 数据同步验证 ssh root@10.0.1.13 "docker logs rustfs --tail=100 | grep sync"常见问题排坑指南
问题1:节点间网络不通
# 检查网络连通性 for node in 11 12 13 14; do ping -c 3 10.0.1.$node telnet 10.0.1.$node 9000 done # 解决方案:配置防火墙 firewall-cmd --add-port=9000/tcp --permanent firewall-cmd --add-port=9001/tcp --permanent firewall-cmd --reload问题2:数据同步失败
# 检查节点时间同步 timedatectl status # 强制时间同步 ntpdate pool.ntp.org # 检查磁盘空间 df -h /data/rustfs问题3:负载不均衡
# 调整负载均衡策略 upstream rustfs_cluster { least_conn; # 最少连接数策略 server 10.0.1.11:9000 weight=2; # 主节点权重更高 server 10.0.1.12:9000 weight=2; server 10.0.1.13:9000 weight=1; server 10.0.1.14:9000 weight=1; }性能优化建议
生产环境调优
environment: - RUSTFS_CACHE_SIZE=2G # 根据内存调整 - RUSTFS_MAX_CONNECTIONS=1000 - RUSTFS_READ_AFTER_WRITE_QUORUM=2 - RUSTFS_WRITE_QUORUM=3总结
通过这套集群方案,我们实现了:
✅ 高可用:单节点故障不影响服务
✅ 数据安全:纠删码保证数据可靠性
✅ 弹性扩展:随时添加新节点
✅ 监控告警:实时掌握集群状态
部署建议:
先在小规模环境测试验证
生产环境务必做好备份
定期进行故障演练
关注RustFS版本更新
这套方案在我们生产环境稳定运行了2个月,经历了多次硬件故障考验。如果你在部署过程中遇到问题,欢迎在评论区交流!
以下是深入学习 RustFS 的推荐资源:RustFS
官方文档: RustFS 官方文档- 提供架构、安装指南和 API 参考。
GitHub 仓库: GitHub 仓库 - 获取源代码、提交问题或贡献代码。
社区支持: GitHub Discussions- 与开发者交流经验和解决方案。
觉得有用的话给个三连,下次分享RustFS的性能调优实战!