news 2026/2/20 16:11:08

日志收集方案

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
日志收集方案

1.应用场景

常用于日志采集和数据回流场景

1.1日志类型

非容器化日志即python组件/go组件/java组件业务日志,可自由进行日志轮转,支持按时间、大小、历史、总容量等

容器化日志(适用于stdout/stderr)单行最大长度是16k,即超过最大长度,日志会自动换行,仅仅按大小/文件数,按时间需结合logrotate

{

"log-driver": "json-file",

"log-opts": {

"max-size": "10m",

"max-file": "3"

}

}

​​​​​​​1.2日志轮转logrotate

apk add --no-cache logrotate并配合启动crond服务实现

/usr/local/kong/logs/*.log {

size 1k

missingok

rotate 7

copytruncate

notifempty

dateext

dateyesterday

create root root

}

​​​​​​​1.3Filebeat-Logstash-Rabbitmq

Filebeat

Input

type=log

scan_frequency 扫描新文件间隔 10s //不是仅实时可以降低

close_inactive 文件句柄关闭时间 5m

Output

type=logstash

bulk_max_size 默认 2048 建议改成1024

Logstash

Input

type=beat

scan_frequency 扫描新文件间隔 10s //不是仅实时可以降低

close_inactive 文件句柄关闭时间 5m

filter {

grok {

match => { "message" => '\[dataflow-logger\]\s+response_data:(?<json_str>\{.*\}) while logging request' }

remove_field => ["message"]

}

if "_grokparsefailure" in [tags] {

drop {}

}

drop {

percentage => 90

}

mutate {

remove_field => ["@version","tags","@timestamp","log","input","host","agent","ecs"]

}

}

output {

rabbitmq {

id => "my-plugin"

exchange => "logstash-topic-exchange"

exchange_type => "topic"

key => "logstash-topic-routing-key"

#默认端口必须是5672

host => "ip"

user => "guest"

password => "guest"

vhost => "/"

durable => true

persistent => true

codec => json

}

}

​​​​​​​1.4FluentBit-Kafka

fluent-bit.conf

[INPUT]

Name tail

Path /var/lib/docker/containers/*/*.log

Parser docker

Tag docker.*

Docker_Mode On

Docker_Mode_Flush 5

Mem_Buf_Limit 50MB

Skip_Long_Lines Off

DB /fluent-bit/tail.db

DB.Sync Normal

[FILTER]

https://docs.fluentbit.io/manual/4.0/data-pipeline/filters/grep

Name grep

Match docker.*

Regex log dataflow-logger

[FILTER]

https://docs.fluentbit.io/manual/4.0/data-pipeline/filters/parser

Name parser

Match docker.*

Key_Name log

Parser extract_logger

Reserve_Data false

Preserve_Key false

[FILTER]

Name throttle

Match docker.*

Rate 6000 #允许每分钟最多 6000 条

Window 60 #单位秒

Interval 1s

[OUTPUT]

Name kafka

Match docker.*

Brokers 172.29.232.69:9092

Topics dataflow-logs

parsers.conf

[PARSER]

Name docker

Format json

Time_Key time

Time_Format %Y-%m-%dT%H:%M:%S.%L%z

Time_Keep On

[PARSER]

Name extract_logger

Format regex

Regex \[dataflow-logger\]\s+response_data:(?<json_str>\{.*\})\s*$

1.5 对比总结

Filebeat-Logstash-Rabbitmq原生支持复杂采样/限流/过滤等处理,但性能欠缺,FluentBit-Kafka从日志采集到消息推送性能较高,且原生高度支持docker容器日志,缺点是业务处理复杂度不够

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/2/14 5:41:45

Ollama本地安装DeepSeek大模型

一、Ollama官网 ollama官网 搜索选择对应的大模型&#xff0c;根据机器规格选择合适的大模型 二、本地运行 新建如下环境变量&#xff1a; 变量名&#xff1a;OLLAMA_MODELS变量值: D:\AiProject\AIModel 变量名&#xff1a;OLLAMA_HOST变量值&#xff1a;127.0.0.1 变量名…

作者头像 李华
网站建设 2026/2/19 5:39:10

【医疗数据合规报告生成秘籍】:PHP开发者必须掌握的10大安全编码实践

第一章&#xff1a;医疗数据合规报告生成的核心挑战在医疗信息化快速发展的背景下&#xff0c;合规报告的生成已成为医疗机构数据治理的关键环节。然而&#xff0c;由于医疗数据的高度敏感性与监管要求的复杂性&#xff0c;报告生成过程面临多重挑战。数据隐私与安全保护 医疗数…

作者头像 李华
网站建设 2026/2/15 16:29:03

揭秘Symfony 8依赖注入机制:5个你必须掌握的性能优化策略

第一章&#xff1a;深入理解Symfony 8依赖注入核心机制Symfony 8 的依赖注入&#xff08;Dependency Injection, DI&#xff09;机制是其架构设计的核心之一&#xff0c;它通过容器管理对象的创建与依赖关系&#xff0c;实现松耦合和高可测试性。该机制允许开发者将服务定义集中…

作者头像 李华
网站建设 2026/2/20 14:28:04

33、拼写检查工具全解析:从Unix原型到awk实现

拼写检查工具全解析:从Unix原型到awk实现 拼写检查是一个既有趣又具有挑战性的问题,它为我们提供了用多种方式解决问题的机会。下面我们将详细探讨各种拼写检查工具和方法。 1. Unix拼写检查原型 在1975年,Steve Johnson在一个下午就编写了第一个版本的 spell 程序。后…

作者头像 李华
网站建设 2026/2/16 3:38:49

数据洪流的精妙疏导:Ascend C内存层级与数据搬运优化实战

目录 摘要 1. 引言&#xff1a;内存墙下的昇腾突围战 2. 技术原理&#xff1a;Ascend C内存体系架构深度解析 2.1 &#x1f3d7;️ 六级存储体系的设计哲学 2.2 ⚡ 数据搬运的核心机制&#xff1a;DMA引擎详解 2.3 &#x1f4ca; 性能特性实测数据分析 3. 实战部分&…

作者头像 李华