网创优客建站品牌官网
为成都网站建设公司企业提供高品质网站建设
热线:028-86922220
成都专业网站建设公司

定制建站费用3500元

符合中小企业对网站设计、功能常规化式的企业展示型网站建设

成都品牌网站建设

品牌网站建设费用6000元

本套餐主要针对企业品牌型网站、中高端设计、前端互动体验...

成都商城网站建设

商城网站建设费用8000元

商城网站建设因基本功能的需求不同费用上面也有很大的差别...

成都微信网站建设

手机微信网站建站3000元

手机微信网站开发、微信官网、微信商城网站...

建站知识

当前位置:首页 > 建站知识

Kafka集群的安装过程

这篇文章主要讲解了“Kafka集群的安装过程”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“Kafka集群的安装过程”吧!

十余年的湾里网站建设经验,针对设计、前端、开发、售后、文案、推广等六对一服务,响应快,48小时及时工作处理。全网营销推广的优势是能够根据用户设备显示端的尺寸不同,自动调整湾里建站的显示方式,使网站能够适用不同显示终端,在浏览器中调整网站的宽度,无论在任何一种浏览器上浏览网站,都能展现优雅布局与设计,从而大程度地提升浏览体验。成都创新互联从事“湾里网站设计”,“湾里网站推广”以来,每个客户项目都认真落实执行。

   1.下载kafka正式版

http://kafka.apache.org/downloads.html

    2.在Linux下解压tar包

tar -xzfkafka_2.9.2-0.8.1.1.tgz

   3.修改server.properties

进入kafka根目录config/server.properties

主要修改的有4个参数如下:

broker.id=0 //broker的标识(正数),集群内各个broker.id不能重复。

port=9092 //端口号,单节点内各个port不能重复(为了方便看最好不同节点端口也不要重复)。

log.dir =/tmp //存储log的地方(数据文件)。

zookeeper.connect= dn1:2181,dn2:2181,dn3:2181

  4.配置producer.properties

# list of brokers used for bootstrapping knowledge about the rest of the cluster

# format: host1:port1,host2:port2 ...

metadata.broker.list=dn1:9092,dn2:9092,dn3:9092

  5.配置consumer.properties

# Zookeeper connection string

# comma separated host:port pairs, each corresponding to a zk

# server. e.g. "127.0.0.1:3000,127.0.0.1:3001,127.0.0.1:3002"

zookeeper.connect=dn1:2181,dn2:2181,dn3:2181

   6.验证是否安装成功

    1. start server

>bin/zookeeper-server-start.sh config/zookeeper.properties

>bin/kafka-server-start.sh config/server.properties

第一行是启动kafka自身带动zookeeper,如果集群有zookeeper可以忽略。

    1. Create a topic

>bin/kafka-topics.sh --zookeeper dn1:2181,dn2:2181,dn3:2181 --topic test1 --replication-factor 3 --partitions 1 --create

>bin/kafka-topics.sh --zookeeper dn1:2181,dn2:2181,dn3:2181 --topic test1 --describe

    1. Send somemessages

> bin/kafka-console-producer.sh --broker-list dn1:9092,dn2:9092,dn3:9092 --topic test1

    1. Start a consumer

>bin/kafka-console-consumer.sh --zookeeper dn1:2181,dn2:2181,dn3:2181 --from-beginning --topic test1

kafka-console-producer.sh和kafka-console-cousumer.sh只是系统提供的命令行工具。这里启动是为了测试是否能正常生产消费,验证流程正确性,在实际开发中还是要自行开发自己的生产者与消费者。

  7.分发到kafka集群节点

cp kafka安装文件并修正3中的参数

  1. 启动各个节点的kafka服务

nohup./kafka-server-start.sh config/server.properties > output2>&1 &

  1. Kafka的具体使用方法请参照官网

http://kafka.apache.org/documentation.html

    8.Web UI安装

8.1 Kafka webconsole UI

下载:https://github.com/claudemamo/kafka-web-console

编译:目前只提供sbt。命令:sbt dist(会生产zip包方便部署和启动)

解压

unzip kafka-web-console-2.1.0-SNAPSHOT.zip  

cd kafka-web-console-2.1.0-SNAPSHOT/bin  

第一次启动时要加个参数:

./kafka-web-console -DapplyEvolutions.default=true   

默认是9000端口,如需修改启动如下:

./kafka-web-console -DapplyEvolutions.default=true-Dhttp.port=19000

不然会报错:

[warn] play - Run with -DapplyEvolutions.default=true if you want to run them automatically (be careful)  

Oops, cannot start the server.  

@6k1jkg3be: Database 'default' needs evolution!  

at play.api.db.evolutions.EvolutionsPlugin

anonfun$onStart$1anonfun$apply$1.apply$mcV$sp(Evolutions.scala:484) 

查看帮助 和 后台运行:

./kafka-web-console -h  

nohup ./kafka-web-console >/dev/null 2>&1 &

Web端地址:http://localhost:9000/

建议:这个第三方WEBUI比较直观,而且简单方便使用。

8.2KafkaOffsetMonitor UI

下载包

https://github.com/quantifind/KafkaOffsetMonitor/releases/tag/v0.2.0

官网:

http://quantifind.github.io/KafkaOffsetMonitor/

编译:提供了jar包,不需要自己编译

运行命令

java –cpKafkaOffsetMonitor-assembly-0.2.0.jar \

com.quantifind.kafka.offsetapp.OffsetGetterWeb\

--zk zk-01,zk-02 \

--port 8080 \

--refresh 5.minutes \

--retain 1.day

Web端地址:http://localhost:port/

8.3kafkaManager UI

下载https://github.com/yahoo/kafka-manager

Yahoo的出的kafka管理界面

下载源码,运行命令:sbtclean dist生产zip包。

解压就可以用。

运行命令:

./kafka-manager-Dconfig.file=../conf/application.conf -Dhttp.port=8080

Web端地址:http://localhost:port/

  1. kafka常用命令

创建topic

/kafka-topics.sh --create --zookeeper 192.168.153.128:2181 --replication-factor 1--partitions 1 --topic test123

查看topic信息

./kafka-topics.sh --describe --topic test123 --zookeeper 192.168.153.128:2181

修改topic分区

./kafka-topics.sh --alter --topic test123 --partitions 2 --zookeeper 192.168.153.128:2181

删除topic

./kafka-run-class.shkafka.admin.DeleteTopicCommand --topic test1 --zookeeper192.168.35.122:2181,192.168.35.123:2181

只是删除了zookeeper中元数据,数据文件还需手动删除。

感谢各位的阅读,以上就是“Kafka集群的安装过程”的内容了,经过本文的学习后,相信大家对Kafka集群的安装过程这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是创新互联,小编将为大家推送更多相关知识点的文章,欢迎关注!


分享文章:Kafka集群的安装过程
网页路径:http://bjjierui.cn/article/gpjisi.html

其他资讯