kafka命令行简单操作

501 阅读2分钟

携手创作,共同成长!这是我参与「掘金日新计划 · 8 月更文挑战」的第25天,点击查看活动详情

在此之前成功的将kafka3.0在linux安装,使用3.0版本自带的zookeeper进行启动,接下来就是对kafka基础架构有一个简单的认识,然后通过命令行的方式来测试一下kafka、zookeeper是否安装成功,通过进行消息的发送与消费,对kafka的功能有一个大概的了解。

基础架构

  • Producer:消息生产者,就是向 Kafka broker 发消息的客户端。

  • Consumer:消息消费者,向 Kafka broker 取消息的客户端。

  • Consumer Group(CG):消费者组,由多个 consumer 组成。消费者组内每个消费者负责消费不同分区的数据,一个分区只能由一个组内消费者消费;消费者组之间互不影响。所有的消费者都属于某个消费者组,即消费者组是逻辑上的一个订阅者。

  • Broker:一台 Kafka 服务器就是一个 broker。一个集群由多个 broker 组成。一个broker 可以容纳多个 topic。

  • Topic:可以理解为一个队列,生产者和消费者面向的都是一个 topic。

  • Partition:为了实现扩展性,一个非常大的 topic 可以分布到多个 broker(即服务器)上,一个 topic 可以分为多个 partition,每个 partition 是一个有序的队列。

  • Replica:副本。一个 topic 的每个分区都有若干个副本,一个 Leader 和若干个Follower。

  • Leader:每个分区多个副本的“主”,生产者发送数据的对象,以及消费者消费数据的对象都是Leader。

  • Follower:每个分区多个副本中的“从”,实时从 Leader 中同步数据,保持和Leader数据的同步。Leader 发生故障时,某个 Follower 会成为新的 Leader。

kafka topic命令行操作

演示环境为kafka单机版

创建一个topic

./kafka-topics.sh --bootstrap-server IP:9092 --create --partitions 1 --replication-factor 3 --topic frist0822

查看服务器上所有的topic

./kafka-topics.sh --bootstrap-server IP:9092 --list

生产者发送消息

./kafka-console-producer.sh --bootstrap-server IP:9092 --topic frist0822

image.png

消费者消费消息

./kafka-console-consumer.sh --bootstrap-server IP:9092 --topic frist0822

image.png

在进行消费者消费消息时,要注意的是使用上面的命令消费者只能监听到消息监听后生产者发送的消息,在监听之前的消息(历史数据是消费不到的)。使用下面命令可以将topic中历史数据都读取出来:

--from-beginning

./kafka-console-consumer.sh --bootstrap-server IP:9092 --from-beginning --topic frist0822

image.png