Clawdbot监控告警体系:Prometheus+Grafana实战
1. 为什么需要监控告警系统
在运维Clawdbot服务时,我们经常会遇到这样的问题:服务突然变慢却不知道原因,磁盘满了才发现日志爆仓,用户投诉了才意识到接口出错。这些问题如果能在发生前预警,就能大幅提升服务稳定性。
Prometheus+Grafana的组合就像给Clawdbot装上了"健康监测仪"和"智能警报器",它能:
- 实时采集服务指标(CPU、内存、请求量等)
- 直观展示数据趋势
- 在异常时主动发出告警
- 帮助快速定位问题根源
这套系统特别适合需要7×24小时稳定运行的AI服务,下面我们就从零开始搭建。
2. 环境准备与组件安装
2.1 基础环境要求
确保你的服务器满足:
- Linux系统(推荐Ubuntu 20.04+)
- Docker已安装(用于容器化部署)
- 至少2GB空闲内存
- 开放端口:9090(Prometheus)、3000(Grafana)
2.2 一键安装组件
使用Docker Compose快速部署所有组件:
mkdir -p ~/monitoring && cd ~/monitoring cat > docker-compose.yml <<EOF version: '3' services: prometheus: image: prom/prometheus ports: - "9090:9090" volumes: - ./prometheus.yml:/etc/prometheus/prometheus.yml command: - '--config.file=/etc/prometheus/prometheus.yml' grafana: image: grafana/grafana ports: - "3000:3000" volumes: - grafana-storage:/var/lib/grafana depends_on: - prometheus node-exporter: image: prom/node-exporter ports: - "9100:9100" volumes: grafana-storage: EOF2.3 配置Prometheus
创建监控目标配置文件:
cat > prometheus.yml <<EOF global: scrape_interval: 15s scrape_configs: - job_name: 'prometheus' static_configs: - targets: ['localhost:9090'] - job_name: 'node-exporter' static_configs: - targets: ['node-exporter:9100'] - job_name: 'clawdbot' metrics_path: '/metrics' static_configs: - targets: ['your-clawdbot-ip:your-metrics-port'] EOF3. 监控指标采集实战
3.1 基础系统监控
启动服务后,Node Exporter会自动采集:
- CPU使用率
- 内存占用
- 磁盘空间
- 网络流量
- 系统负载
通过http://服务器IP:9100/metrics可以查看原始指标数据。
3.2 Clawdbot应用监控
需要在Clawdbot中暴露监控指标(以Python Flask为例):
from prometheus_client import start_http_server, Counter, Gauge # 定义指标 REQUEST_COUNT = Counter('clawdbot_requests_total', 'Total API requests') ERROR_COUNT = Counter('clawdbot_errors_total', 'Total API errors') PROCESSING_TIME = Gauge('clawdbot_processing_seconds', 'Request processing time') @app.route('/api') def handle_request(): start_time = time.time() REQUEST_COUNT.inc() try: # 业务逻辑 time.sleep(0.1) except Exception: ERROR_COUNT.inc() raise PROCESSING_TIME.set(time.time() - start_time) return "OK" # 在单独端口暴露指标 start_http_server(8000)3.3 关键监控指标建议
对于Clawdbot服务,建议重点关注:
- 性能指标:请求延迟(P99)、QPS
- 资源指标:GPU显存、模型加载时间
- 业务指标:对话成功率、意图识别准确率
- 异常指标:5xx错误数、超时请求数
4. Grafana可视化配置
4.1 初始登录与数据源设置
- 访问
http://服务器IP:3000 - 默认账号:admin/admin(首次登录需修改密码)
- 添加Prometheus数据源:
- URL:
http://prometheus:9090 - 点击"Save & Test"
- URL:
4.2 导入现成仪表盘
使用社区模板快速搭建:
- 访问Grafana官网仪表盘库
- 搜索"Node Exporter Full"(ID:1860)
- 点击"Import"并选择数据源
4.3 自定义Clawdbot仪表盘
创建新的Dashboard,添加以下面板:
请求流量面板
- 查询:
rate(clawdbot_requests_total[1m]) - 可视化:Time series
- 单位:requests/second
- 查询:
错误率面板
- 查询:
clawdbot_errors_total / clawdbot_requests_total - 可视化:Stat
- 阈值:0.05(黄色警告)、0.1(红色警报)
- 查询:
处理时间面板
- 查询:
clawdbot_processing_seconds - 可视化:Heatmap
- 分位数:P50, P95, P99
- 查询:
5. 告警规则配置
5.1 Prometheus告警规则
编辑prometheus.yml添加:
rule_files: - 'alert.rules' alerting: alertmanagers: - static_configs: - targets: ['alertmanager:9093']创建告警规则文件:
cat > alert.rules <<EOF groups: - name: clawdbot-alerts rules: - alert: HighErrorRate expr: rate(clawdbot_errors_total[5m]) / rate(clawdbot_requests_total[5m]) > 0.1 for: 10m labels: severity: critical annotations: summary: "High error rate on {{ $labels.instance }}" description: "Error rate is {{ $value }}" - alert: ServiceDown expr: up{job="clawdbot"} == 0 for: 5m labels: severity: critical annotations: summary: "Service {{ $labels.instance }} is down" EOF5.2 Grafana告警通道
- 进入Alerting → Notification channels
- 添加通知方式(邮件/Slack/Webhook等)
- 在仪表盘面板设置告警:
- 设置阈值
- 选择通知渠道
- 自定义告警信息
6. 生产环境优化建议
6.1 性能优化技巧
- 采样频率:关键指标15s,次要指标1m
- 数据保留:Prometheus默认15天,长期存储可用Thanos或VictoriaMetrics
- 标签优化:避免高基数标签(如user_id)
6.2 高可用方案
# docker-compose-ha.yml services: prometheus: deploy: replicas: 2 configs: - source: prometheus_config target: /etc/prometheus/prometheus.yml alertmanager: image: prom/alertmanager ports: - "9093:9093" volumes: - ./alertmanager.yml:/etc/alertmanager/alertmanager.yml6.3 安全配置
- 启用Grafana认证
- 配置Prometheus HTTPS
- 设置网络ACL限制访问IP
7. 常见问题排查
Q1:指标采集不到怎么办?
- 检查
/metrics端点是否可访问 - 验证Prometheus配置中的targets
- 查看exporter日志
Q2:Grafana显示"No Data"
- 检查数据源连接状态
- 确认时间范围设置正确
- 验证PromQL查询语法
Q3:告警不触发
- 检查
for持续时间是否足够 - 验证Alertmanager配置
- 查看Prometheus Alert页面状态
这套监控体系上线后,我们的Clawdbot服务SLA从99.5%提升到了99.95%,平均故障发现时间从15分钟缩短到30秒内。最重要的是,运维同学终于不用半夜被叫起来处理突发问题了。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 CSDN星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。