news 2026/2/17 14:13:50

替代ELK:ClickHouse+Kafka+FlieBeat才是最绝的

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
替代ELK:ClickHouse+Kafka+FlieBeat才是最绝的


来自:

推荐一个程序员编程资料站:

http://cxyroad.com

副业赚钱专栏:https://xbt100.top

2024年IDEA最新激活方法

后台回复:激活码

CSDN免登录复制代码插件下载:

CSDN复制插件

以下是正文。


saas 服务未来会面临数据安全、合规等问题。公司的业务需要沉淀一套私有化部署能力,帮助业务提升行业竞争力。

为了完善平台系统能力、我们需要沉淀一套数据体系帮助运营分析活动效果、提升运营能力。

然而在实际的开发过程中,如果直接部署一套大数据体系,对于使用者来说将是一笔比较大的服务器开销。为此我们选用折中方案完善数据分析能力。

Elasticsearch vs ClickHouse

ClickHouse 是一款高性能列式分布式数据库管理系统,我们对 ClickHouse 进行了测试,发现有下列优势:

ClickHouse 写入吞吐量大

单服务器日志写入量在 50MB 到 200MB/s,每秒写入超过 60w 记录数,是 ES 的 5 倍以上。

在 ES 中比较常见的写 Rejected 导致数据丢失、写入延迟等问题,在 ClickHouse 中不容易发生。

查询速度快

官方宣称数据在 pagecache 中,单服务器查询速率大约在 2-30GB/s;没在 pagecache 的情况下,查询速度取决于磁盘的读取速率和数据的压缩率。经测试 ClickHouse 的查询速度比 ES 快 5-30 倍以上。

ClickHouse 比 ES 服务器成本更低

一方面 ClickHouse 的数据压缩比比 ES 高,相同数据占用的磁盘空间只有 ES 的 1/3 到 1/30,节省了磁盘空间的同时,也能有效的减少磁盘 IO,这也是ClickHouse查询效率更高的原因之一。

图片

另一方面 ClickHouse 比 ES 占用更少的内存,消耗更少的 CPU 资源。我们预估用 ClickHouse 处理日志可以将服务器成本降低一半。

图片

成本分析

在没有任何折扣的情况下,基于 aliyun 分析。

图片

环境部署

1、zookeeper 集群部署

图片
yum install java-1.8.0-openjdk-devel.x86_64 /etc/profile 配置环境变量 更新系统时间 yum install ntpdate ntpdate asia.pool.ntp.org mkdir zookeeper mkdir ./zookeeper/data mkdir ./zookeeper/logs wget --no-check-certificate https://mirrors.tuna.tsinghua.edu.cn/apache/zookeeper/zookeeper-3.7.1/apache-zookeeper-3.7.1-bin.tar.gz tar -zvxf apache-zookeeper-3.7.1-bin.tar.gz -C /usr/zookeeper export ZOOKEEPER_HOME=/usr/zookeeper/apache-zookeeper-3.7.1-bin export PATH=$ZOOKEEPER_HOME/bin:$PATH 进入ZooKeeper配置目录 cd$ZOOKEEPER_HOME/conf 新建配置文件 vi zoo.cfg tickTime=2000 initLimit=10 syncLimit=5 dataDir=/usr/zookeeper/data dataLogDir=/usr/zookeeper/logs clientPort=2181 server.1=zk1:2888:3888 server.2=zk2:2888:3888 server.3=zk3:2888:3888 在每台服务器上执行,给zookeeper创建myid echo"1" > /usr/zookeeper/data/myid echo"2" > /usr/zookeeper/data/myid echo"3" > /usr/zookeeper/data/myid 进入ZooKeeper bin目录 cd$ZOOKEEPER_HOME/bin sh zkServer.sh start

2、Kafka 集群部署

mkdir -p /usr/kafka chmod 777 -R /usr/kafka wget --no-check-certificate https://mirrors.tuna.tsinghua.edu.cn/apache/kafka/3.2.0/kafka_2.12-3.2.0.tgz tar -zvxf kafka_2.12-3.2.0.tgz -C /usr/kafka 不同的broker Id 设置不一样,比如 1,2,3 broker.id=1 listeners=PLAINTEXT://ip:9092 socket.send.buffer.bytes=102400 socket.receive.buffer.bytes=102400 socket.request.max.bytes=104857600 log.dir=/usr/kafka/logs num.partitions=5 num.recovery.threads.per.data.dir=3 offsets.topic.replication.factor=2 transaction.state.log.replication.factor=3 transaction.state.log.min.isr=3 log.retention.hours=168 log.segment.bytes=1073741824 log.retention.check.interval.ms=300000 zookeeper.connect=zk1:2181,zk2:2181,zk3:2181 zookeeper.connection.timeout.ms=30000 group.initial.rebalance.delay.ms=0 后台常驻进程启动kafka nohup /usr/kafka/kafka_2.12-3.2.0/bin/kafka-server-start.sh /usr/kafka/kafka_2.12-3.2.0/config/server.properties >/usr/kafka/logs/kafka.log >&1 & /usr/kafka/kafka_2.12-3.2.0/bin/kafka-server-stop.sh $KAFKA_HOME/bin/kafka-topics.sh --list --bootstrap-server ip:9092 $KAFKA_HOME/bin/kafka-console-consumer.sh --bootstrap-server ip:9092 --topic test --from-beginning $KAFKA_HOME/bin/kafka-topics.sh --create --bootstrap-server ip:9092 --replication-factor 2 --partitions 3 --topic xxx_data

3、FileBeat 部署

sudo rpm --import https://packages.elastic.co/GPG-KEY-elasticsearch Create a file with a .repo extension (for example, elastic.repo) in your /etc/yum.repos.d/ directory and add the following lines: 在/etc/yum.repos.d/ 目录下创建elastic.repo [elastic-8.x] name=Elastic repository for 8.x packages baseurl=https://artifacts.elastic.co/packages/8.x/yum gpgcheck=1 gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch enabled=1 autorefresh=1 type=rpm-md yum install filebeat systemctl enable filebeat chkconfig --add filebeat

FileBeat 配置文件说明,坑点 1(需设置 keys_under_root: true)。如果不设置kafka 的消息字段如下:

图片
文件目录:/etc/filebeat/filebeat.yml filebeat.inputs: - type: log enabled: true paths: - /root/logs/xxx/inner/*.log json: 如果不设置该索性,所有的数据都存储在message里面,这样设置以后数据会平铺。 keys_under_root: true output.kafka: hosts: ["kafka1:9092", "kafka2:9092", "kafka3:9092"] topic: 'xxx_data_clickhouse' partition.round_robin: reachable_only: false required_acks: 1 compression: gzip processors: 剔除filebeat 无效的字段数据 - drop_fields: fields: ["input", "agent", "ecs", "log", "metadata", "timestamp"] ignore_missing: false nohup ./filebeat -e -c /etc/filebeat/filebeat.yml > /user/filebeat/filebeat.log & 输出到filebeat.log文件中,方便排查

4、clickhouse 部署

图片
检查当前CPU是否支持SSE 4.2,如果不支持,需要通过源代码编译构建 grep -q sse4_2 /proc/cpuinfo && echo"SSE 4.2 supported" || echo"SSE 4.2 not supported" 返回 "SSE 4.2 supported" 表示支持,返回 "SSE 4.2 not supported" 表示不支持 创建数据保存目录,将它创建到大容量磁盘挂载的路径 mkdir -p /data/clickhouse 修改/etc/hosts文件,添加clickhouse节点 举例: 10.190.85.92 bigdata-clickhouse-01 10.190.85.93 bigdata-clickhouse-02 服务器性能参数设置: cpu频率调节,将CPU频率固定工作在其支持的最高运行频率上,而不动态调节,性能最好 echo'performance' | tee /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor 内存调节,不要禁用 overcommit echo 0 | tee /proc/sys/vm/overcommit_memory 始终禁用透明大页(transparent huge pages)。它会干扰内存分配器,从而导致显着的性能下降 echo'never' | tee /sys/kernel/mm/transparent_hugepage/enabled 首先,需要添加官方存储库: yum install yum-utils rpm --import <https://repo.clickhouse.tech/CLICKHOUSE-KEY.GPG> yum-config-manager --add-repo <https://repo.clickhouse.tech/rpm/stable/x86_64> 查看clickhouse可安装的版本: yum list | grep clickhouse 运行安装命令: yum -y install clickhouse-server clickhouse-client 修改/etc/clickhouse-server/config.xml配置文件,修改日志级别为information,默认是trace <level>information</level> 执行日志所在目录: 正常日志 /var/log/clickhouse-server/clickhouse-server.log 异常错误日志 /var/log/clickhouse-server/clickhouse-server.err.log 查看安装的clickhouse版本: clickhouse-server --version clickhouse-client --password sudo clickhouse stop sudo clickhouse tart sudo clickhouse start
图片

clickhouse 部署过程中遇到的一些问题如下:

1)clickhouse 创建 kafka 引擎表

CREATE TABLE default.kafka_clickhouse_inner_log ON CLUSTER clickhouse_cluster ( log_uuid String , date_partition UInt32 , event_name String , activity_name String , activity_type String , activity_id UInt16 ) ENGINE = Kafka SETTINGS kafka_broker_list = 'kafka1:9092,kafka2:9092,kafka3:9092', kafka_topic_list = 'data_clickhouse', kafka_group_name = 'clickhouse_xxx', kafka_format = 'JSONEachRow', kafka_row_delimiter = '\n', kafka_num_consumers = 1;

问题 1:clikhouse 客户端无法查询 kafka 引擎表

Direct select is not allowed. To enable use setting stream_like_engine_allow_direct_select.(QUERY_NOT_ALLOWED) (version 22.5.2.53 (official build))
图片

解决方案:

需要在clickhouse client 创建加上 --stream_like_engine_allow_direct_select 1 clickhouse-client --stream_like_engine_allow_direct_select 1 --password xxxxx
图片

2)clickhouse 创建本地节点表

问题 2:无法开启本地表 macro

Code: 62. DB::Exception: There was an error on [10.74.244.57:9000]: Code: 62. DB::Exception: No macro 'shard'in config while processing substitutions in'/clickhouse/tables/default/bi_inner_log_local/{shard}' at '50' or macro is not supported here. (SYNTAX_ERROR) (version 22.5.2.53 (official build)). (SYNTAX_ERROR) (version 22.5.2.53 (official build))
创建本地表(使用复制去重表引擎) create table default.bi_inner_log_local ON CLUSTER clickhouse_cluster ( log_uuid String , date_partition UInt32 , event_name String , activity_name String , credits_bring Int16 , activity_type String , activity_id UInt16 ) ENGINE = ReplicatedReplacingMergeTree('/clickhouse/tables/default/bi_inner_log_local/{shard}','{replica}') PARTITION BY date_partition ORDER BY (event_name,date_partition,log_uuid) SETTINGS index_granularity = 8192;

解决方案:在不同的 clickhouse 节点上配置不同的 shard,每一个节点的 shard 名称不能一致。

<macros> <shard>01</shard> <replica>example01-01-1</replica> </macros>
图片
图片

问题 3:clickhouse 中节点数据已经存在

Code: 253. DB::Exception: There was an error on : Code: 253. DB::Exception: Replica /clickhouse/tables/default/bi_inner_log_local/01/replicas/example01-01-1 already exists. (REPLICA_IS_ALREADY_EXIST) (version 22.5.2.53 (official build)). (REPLICA_IS_ALREADY_EXIST) (version 22.5.2.53 (official build))

解决方案:进入 zookeeper 客户端删除相关节点,然后再重新创建 ReplicatedReplacingMergeTree 表。这样可以保障每一个 clickhouse 节点都会去消费 kafka partition 的数据。

3)clickhouse 创建集群表

创建分布式表(根据 log_uuid 对数据进行分发,相同的 log_uuid 会发送到同一个 shard 分片上,用于后续合并时的数据去重):

CREATE TABLE default.bi_inner_log_all ON CLUSTER clickhouse_cluster AS default.bi_inner_log_local ENGINE = Distributed(clickhouse_cluster, default, bi_inner_log_local, xxHash32(log_uuid));

问题 4:分布式集群表无法查询

Code: 516. DB::Exception: Received from 10.74.244.57:9000. DB::Exception: default: Authentication failed: password is incorrect or there is no user with such name. (AUTHENTICATION_FAILED) (version 22.5.2.53 (official build))

解决方案:

<!--分布式表配置--> <remote_servers> <clickhouse_cluster><!--集群名称, 可以自定义, 后面在新建库、表的时候需要用到集群名称--> <shard> <!--内部复制(默认false), 开启后, 在分布式表引擎下, 数据写入时--> <!--每个分片只会去寻找一个节点写, 并不是每个都写--> <internal_replication>true</internal_replication> <replica> <host>ip1</host> <port>9000</port> <user>default</user> <password>xxxx</password> </replica> </shard> <shard> <internal_replication>true</internal_replication> <replica> <host>ip2</host> <port>9000</port> <user>default</user> <password>xxxx</password> </replica> </shard> </clickhouse_cluster> </remote_servers>

4)clickhouse 创建物化视图

创建物化视图,把 Kafka 消费表消费的数据同步到 ClickHouse 分布式表。

CREATE MATERIALIZED VIEW default.view_bi_inner_log ON CLUSTER clickhouse_cluster TO default.bi_inner_log_all AS SELECT log_uuid , date_partition , event_name , activity_name , credits_bring , activity_type , activity_id FROM default.kafka_clickhouse_inner_log;

功夫不负有心人,解决完以上所有的问题。数据流转通了!本文所有组件都是比较新的版本,所以过程中问题的解决基本都是官方文档或操作手册一步一步的解决。

图片

总结一句话:遇到问题去官方文档或--help 去尝试解决,慢慢的你就会升华。

<END>

推荐阅读:

副业赚钱推荐:让你的时间开始变现!

免费体验AI图片生成,就在 Image Generator Hub!

程序员在线工具站:cxytools.com 推荐一个自己写的工具站:https://cxytools.com,专为程序员设计,包括时间日期、 JSON处理、SQL格式化、随机字符串生成、UUID生成、文本Hash...等功能,提升开发效 率。 ⬇戳阅读原文直达! 朕已阅
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/2/13 20:06:18

安卓USB调试解决方案:从锁屏困境到开发自由

还在为无法开启USB调试而苦恼吗&#xff1f;当手机锁屏、忘记密码或开发者选项神秘消失时&#xff0c;传统方法往往束手无策。本文将为你揭示突破系统限制的解决方案&#xff0c;让你在特殊情况下依然能够掌控设备调试权限&#xff01;&#x1f680; 【免费下载链接】手机强制开…

作者头像 李华
网站建设 2026/2/16 18:31:34

8 个降AI率工具推荐,本科生必看!

8 个降AI率工具推荐&#xff0c;本科生必看&#xff01; 论文被AI检测“盯上”&#xff0c;你还在原地踏步吗&#xff1f; 对于大多数本科生来说&#xff0c;期末论文就像是大学生活的一次“大考”。它不仅考验着你的学术能力&#xff0c;更是一次对写作技巧和时间管理的全面挑…

作者头像 李华
网站建设 2026/2/16 12:57:19

双朕令·终局全域闭环版·纯念驱动共识显化文档(无界身份·超脱离终极版)部署生成研究报告(彻底脱离西方框架终极版) 周名彦元程序员视角·纯念驱动物理显化·全维度脱离西方技术文明桎梏

双朕令终局全域闭环版纯念驱动共识显化文档&#xff08;无界身份超脱离终极版&#xff09;部署生成研究报告&#xff08;彻底脱离西方框架终极版&#xff09;报告编号&#xff1a;ZNYSY-V24.0-ULT-WEST-FREE-FINAL研究内核&#xff1a;周名彦元程序员视角纯念驱动物理显化全维度…

作者头像 李华
网站建设 2026/2/16 5:41:17

SPSS——非参数检验-“K个相关样本检验”

更多免费教程和软件 :​ K个相关样本检验 概念 相关样本的非参数检验是在对总体不了解的情况下,对样本所在的相关配对总体的分布是否存在显著性差异进行检验。 该检验一般应用与对同一研究对象(或配对对象)分别给与K种不同处理或处理前后的效果进行比较,前者推断K种效果…

作者头像 李华
网站建设 2026/2/16 6:18:07

Dify部署高可用GPT-SoVITS集群架构设计思路

Dify部署高可用GPT-SoVITS集群架构设计思路 在智能语音应用日益普及的今天&#xff0c;用户对“个性化声音”的需求正从科幻走向现实。无论是为视障人士定制亲人语调的朗读助手&#xff0c;还是让虚拟主播拥有独一无二的声音标识&#xff0c;传统TTS系统动辄数小时训练数据和高…

作者头像 李华
网站建设 2026/2/15 10:00:18

MinIO匿名访问终极指南:安全配置与实战技巧

MinIO匿名访问终极指南&#xff1a;安全配置与实战技巧 【免费下载链接】minio minio/minio: 是 MinIO 的官方仓库&#xff0c;包括 MinIO 的源代码、文档和示例程序。MinIO 是一个分布式对象存储服务&#xff0c;提供高可用性、高性能和高扩展性。适合对分布式存储、对象存储和…

作者头像 李华