news 2026/2/26 6:49:15

<span class=“js_title_inner“>Apache Hadoop生态组件部署分享-Impala</span>

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
<span class=“js_title_inner“>Apache Hadoop生态组件部署分享-Impala</span>

节点信息请参考:

zookeeper: Apache Hadoop生态组件部署分享-zookeeper

hadoop:Apache Hadoop生态组件部署分享-Hadoop

hive: Apache Hadoop生态组件部署分享-Hive

hbase: Apache Hadoop生态组件部署分享-Hbase

一、IMPALA编译

1.1 下载impala-4.2.0

下载地址:https://impala.apache.org/downloads.html

1.2 解压并修改相关配置

cd apache-impala-4.2.0修改./bin/impala-config.shexport USE_APACHE_HIVE=${USE_APACHE_HIVE-false} 为 export USE_APACHE_HIVE=${USE_APACHE_HIVE-true}

修改此参数原因: 部署时候impala无法查询数据,因为默认引用的是cloudera产品的依赖,cdp hive中的元数据表字段与apache hive元数据表字段不一致,报错信息为: Operations not supported. Table xxx access type is: NONE

见https://issues.apache.org/jira/browse/IMPALA-10792

1.3 开始编译

编译之前在编译机器安装:

yum install boost boost-devel redhat-lsb python-devel cyrus-sasl-devel cyrus-sasl lzo-devel lzo gcc-c++ gcc cmake maven python pip python-devel

开始编译

[root@wqg apache-impala-4.2.0]# export IMPALA_HOME=`pwd`[root@wqg apache-impala-4.2.0]# bin/bootstrap_system.sh...[root@wqg apache-impala-4.2.0]# $IMPALA_HOME/buildall.sh -noclean -notests

注:中间编译遇到了很多异常后面会统一贴出

说明: 本次编译并没有调整过多版本,大多采用默认版本号,因此兼容性不是最佳,目前还未发现问题

编译参考网址:

impala官方文档:https://cwiki.apache.org/confluence/display/IMPALA/Impala+Home

编译文档: https://cwiki.apache.org/confluence/display/IMPALA/Building+Impala

二、impala安装部署(单节点)

其实多节点也就是在其他节点部署impala daemon 步骤一样的

2.1 打包分发解压

将编译好的文件打包从192.168.242.130 分发至 192.168.242.230

解压后的目录: /opt/apache/apache-impala-4.2.0

mkdir /opt/apache_v00/hadoop-3.3.5/hdfs-sockets#后面配置需要

2.2 配置文件

hdfs-site.xml
在hdfs-site.xml配置文件中新增以下内容,配置完成后将其分发至其他节点以及hive的配置路径下
<!--impala所需配置--><property> <name>dfs.client.read.shortcircuit</name> <value>true</value></property> <property> <name>dfs.domain.socket.path</name> <value>/opt/apache_v00/hadoop-3.3.5/hdfs-sockets/dn</value></property> <property> <name>dfs.client.file-block-storage-locations.timeout.millis</name> <value>10000</value></property> <property> <name>dfs.datanode.hdfs-blocks-metadata.enabled</name> <value>true</value> </property>
hive-site.xml
在hive的conf下编译hive-site.xml新增以下内容然后分发到其他节点
<!--impala所需--><property> <name>hive.metastore.dml.events</name> <value>true</value></property>

重启hadoop、hive相关组件服务

2.3 state_store_flags配置

我的是在/opt/apache_v00/apache-impala-4.2.0/conf,配置文件路径位置可以任意

-state_store_pending_task_count_max=0-max_log_files=10-state_store_port=24000-enable_webserver=true-webserver_port=25010-state_store_num_server_worker_threads=4-log_filename=statestored-minidump=9-hostname=apache230.hadoop.com

2.4 catalogserver_flags配置

-catalog_service_port=26000-max_log_files=10-hms_event_polling_interval_s=2-load_auth_to_local_rules=false-load_catalog_in_background=false-webserver_port=25020-server_name=apache230.hadoop.com-ranger_app_id=impala-authorization_provider=ranger-ranger_service_type=hive-catalog_topic_mode=minimal-log_filename=catalogd-state_store_subscriber_timeout_seconds=30-state_store_host=apache230.hadoop.com-state_store_port=24000

2.5 impalad_flags配置

-server-name=apache230.hadoop.com-ranger_service_type=hive-ranger_app_id=impala-authorization_provider=ranger-state_store_host=apache230.hadoop.com-catalog_service_host=apache230.hadoop.com-catalog_service_port=26000-hostname=apache230.hadoop.com-beeswax_port=21000-fe_port=21000-be_port=22000-use_local_catalog=true

2.6 启动impala相关服务

export IMPALA_HOME=/opt/apache_v00/apache-impala-4.2.0export CLASSPATH=$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar:${IMPALA_HOME}/fe/target/impala-frontend-4.2.0-RELEASE.jar:$(echo ${IMPALA_HOME}/fe/target/dependency/*.jar | tr ' ' ':'):${HADOOP_HOME}/etc/hadoop/core-site.xml:${HADOOP_HOME}/etc/hadoop/hdfs-site.xmlexport CLASSPATH=\/root/libthrift-0.16.0.jar:\${HADOOP_HOME}/etc/hadoop:\"$IMPALA_HOME"/fe/src/test/resources:\"$IMPALA_HOME"/fe/target/dependency:\"$IMPALA_HOME"/fe/target/impala-frontend-4.2.0-RELEASE.jar:\"$IMPALA_HOME"/fe/target/impala-frontend-4.2.0-RELEASE-tests.jar:$CLASSPATH cd /opt/apache/apache-impala-4.2.0/be/build/debug/servicenohup ./statestored start --flagfile=/etc/impala/conf/state_store_flags > statestored.log 2>&1 &nohup ./catalogd start --flagfile=/etc/impala/conf/catalogserver_flags > catalogd.log 2>&1 &./impalad start --flagfile=/opt/apache_v00/apache-impala-4.2.0/conf/impalad_flags

2.7 连接测试

impala-shell -i apache230.hadoop.com:21000 -d default --protocol=beeswax

impala-shell -i apache230.hadoop.com:21050 -d default (默认走21050端口)

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/2/21 13:45:12

Atmosphere-stable终极优化指南:从入门到精通的7个实用技巧

Atmosphere-stable终极优化指南&#xff1a;从入门到精通的7个实用技巧 【免费下载链接】Atmosphere-stable 大气层整合包系统稳定版 项目地址: https://gitcode.com/gh_mirrors/at/Atmosphere-stable Atmosphere-stable&#xff08;大气层整合包系统稳定版&#xff09;…

作者头像 李华
网站建设 2026/2/24 12:23:15

3步内存故障定位:MemTestCL内存检测终极解决方案

3步内存故障定位&#xff1a;MemTestCL内存检测终极解决方案 【免费下载链接】memtestCL OpenCL memory tester for GPUs 项目地址: https://gitcode.com/gh_mirrors/me/memtestCL 内存故障诊断是确保计算系统稳定性的关键环节&#xff0c;而MemTestCL作为一款专业的Ope…

作者头像 李华
网站建设 2026/2/9 10:45:20

锁优化的经济学:从synchronized看JVM性能权衡的艺术

锁优化的经济学&#xff1a;从synchronized看JVM性能权衡的艺术 在当今高并发的分布式系统设计中&#xff0c;锁机制作为保证线程安全的基础工具&#xff0c;其性能表现直接影响着系统的吞吐量和响应时间。Java中的synchronized关键字从JDK 1.0开始就作为内置锁存在&#xff0c…

作者头像 李华
网站建设 2026/2/26 0:35:37

AI推理服务监控:DeepSeek-R1-Distill-Qwen-1.5B日志分析实战

AI推理服务监控&#xff1a;DeepSeek-R1-Distill-Qwen-1.5B日志分析实战 在实际AI工程落地中&#xff0c;模型跑起来了只是第一步&#xff1b;真正决定服务稳定性和用户体验的&#xff0c;是能不能及时发现异常、快速定位问题、持续保障响应质量。尤其当部署的是像DeepSeek-R1…

作者头像 李华
网站建设 2026/2/16 7:22:38

通义千问3-4B实战落地:企业内部知识库构建详细步骤

通义千问3-4B实战落地&#xff1a;企业内部知识库构建详细步骤 1. 为什么选Qwen3-4B来搭知识库&#xff1f; 你是不是也遇到过这些情况&#xff1a; 新员工入职要花两周翻文档、问前辈&#xff0c;效率低还容易漏重点&#xff1b;销售同事总在群里反复问“这个产品参数是多少…

作者头像 李华