给ambari集群里的kafka安装基于web的kafka管理工具Kafka-manager(图文详解)

  1. 云栖社区>
  2. 博客>
  3. 正文

给ambari集群里的kafka安装基于web的kafka管理工具Kafka-manager(图文详解)

技术小哥哥 2017-11-14 21:50:00 浏览3369
展开阅读全文

 但是,要注意的是,因为在amabri集群里啊,10000端口默认是给了oozie的。

  然而,我上述的博客,是当时手动临时给的10000端口给kafka-manager,所以,对此,我这里改变端口,具体如下。

 

 

一、给基于Ubuntu14.04的ambari集群里的kafka安装基于web的kafka管理工具Kafka-manager

 

 

 

 

 

   我这里,打算为了目录管理方便起见,安装Kafka-manager在/usr/hdp/2/4.0.0-169目录下。

   具体过程见基于centos6.5,我这里就不贴图了,过程是完全一样的。

 

 

 

 

 

二、给基于CentOS6.5的ambari集群里的kafka安装基于web的kafka管理工具Kafka-manager

   下载

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

  我这里,打算为了目录管理方便起见,安装Kafka-manager在/usr/hdp/2/4.0.0-169目录下。

[hadoop@ambigdata1 2.4.0.0.-169]$ unzip kafka-manager-1.3.2.1.zip 

 

 

 

 

 

[hadoop@ambigdata1 2.4.0.0-169]$ rm kafka-manager-1.3.2.1.zip 
[hadoop@ambigdata1 2.4.0.0-169]$ cd kafka-manager-1.3.2.1/

 

 

 

 

 

 

 

复制代码
[hadoop@ambigdata1 conf]$ pwd
/usr/hdp/2.4.0.0-169/kafka-manager-1.3.2.1/conf
[hadoop@ambigdata1 conf]$ ll
total 24
-rw-r--r-- 1 hadoop hadoop 1277 Feb 22 11:07 application.conf
-rw-r--r-- 1 hadoop hadoop   27 Feb 22 08:55 consumer.properties
-rw-r--r-- 1 hadoop hadoop 2108 Feb 22 08:55 logback.xml
-rw-r--r-- 1 hadoop hadoop 1367 Feb 22 08:55 logger.xml
-rw-r--r-- 1 hadoop hadoop 7167 Feb 22 08:55 routes
[hadoop@ambigdata1 conf]$ vim application.conf 
复制代码

 

 

 

 

 

 

 

   

  这是默认的

复制代码
# Copyright 2015 Yahoo Inc. Licensed under the Apache License, Version 2.0
# See accompanying LICENSE file.

# This is the main configuration file for the application.
# ~~~~~

# Secret key
# ~~~~~
# The secret key is used to secure cryptographics functions.
# If you deploy your application to several instances be sure to use the same key!
play.crypto.secret="^<csmm5Fx4d=r2HEX8pelM3iBkFVv?k[mc;IZE<_Qoq8EkX_/7@Zt6dP05Pzea3U"
play.crypto.secret=${?APPLICATION_SECRET}

# The application languages
# ~~~~~
play.i18n.langs=["en"]

play.http.requestHandler = "play.http.DefaultHttpRequestHandler"
play.http.context = "/"
play.application.loader=loader.KafkaManagerLoader

kafka-manager.zkhosts="localhost:2181"
kafka-manager.zkhosts=${?ZK_HOSTS}
pinned-dispatcher.type="PinnedDispatcher"
pinned-dispatcher.executor="thread-pool-executor"
application.features=["KMClusterManagerFeature","KMTopicManagerFeature","KMPreferredReplicaElectionFeature","KMReassignPartitionsFeature"]

akka {
  loggers = ["akka.event.slf4j.Slf4jLogger"]
  loglevel = "INFO"
}


basicAuthentication.enabled=false
basicAuthentication.username="admin"
basicAuthentication.password="password"
basicAuthentication.realm="Kafka-Manager"


kafka-manager.consumer.properties.file=${?CONSUMER_PROPERTIES_FILE}
复制代码

 

 

 

 

 

kafka-manager.zkhosts="ambigdata1:2181,ambigdata2:2181,ambigdata3:2181,ambigdata4:2181"

 

 

 

 

 

 

运行kafka manager

  注意:默认启动端口为9000。

  要到大家kafka-manager的安装目录下来执行。

  如我这里是在/usr/hdp/2.4.0.0-169/kafka-manager-1.3.2.1

bin/kafka-manager -Dconfig.file=conf/application.conf

 

  或者 

nohup bin/kafka-manager -Dconfig.file=conf/application.conf &  (后台运行)

 

 

  当然,大家可以以这个端口为所用,大家也可以在启动的时候,开启另一个端口,比如我这里开启1000端口。

   最好使用绝对路径。

  要到大家kafka-manager的安装目录下来执行。

  如我这里是在/usr/hdp/2.4.0.0-169/kafka-manager-1.3.2.1

nohup bin/kafka-manager  -Dconfig.file=/usr/hdp/2.4.0.0-169/kafka-manager-1.3.2.1/conf/application.conf -Dhttp.port=1000 &

   我这里, 为了避免跟ambari集群里默认的oozie端口为10000。所以特地开启1000端口。

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

   它会自动识别出,当前,你所用的kafka版本

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

   

   点击【Go to cluster view.】打开当前的集群界面。

 

 

 

 

 

 

 

 

 

   成功!



本文转自大数据躺过的坑博客园博客,原文链接:http://www.cnblogs.com/zlslch/p/7264441.html,如需转载请自行联系原作者


网友评论

登录后评论
0/500
评论