这是我参与「第四届青训营 」笔记创作活动的第5天
学习大数据需要用到大名鼎鼎的kafka消息队列,因此本文记录一下学习kafka的过程和经历。
第 1 章 Kafka 概述
1.1 定义
Kafka传统定义:Kafka是一个分布式的基于发布/订阅模式的消息队列(MessageQueue),主要应用于大数据实时处理领域。
发布/订阅:消息的发布者不会将消息直接发送给特定的订阅者,而是将发布的消息分为不同的类别,订阅者只接收感兴趣的消息。
1.2 消息队列的应用场景
传统的消息队列的主要应用场景包括:缓存/消峰、解耦和异步通信
—缓冲/消峰:有助于控制和优化数据流经过系统的速度,解决生产消息和消费消息的处理速度不一致的情况。一个常见的生活中的例子就是在双十一时,电商服务器的客流量巨增,可以利用消息队列进行数据的消峰。
—解耦:允许你独立的扩展或修改两边的处理过程,只要确保它们遵守同样的接口约束
—异步通信:允许用户把一个消息放入队列,但并不立即处理它,然后在需要的时候再去处理它们。
如上图所示,用户在注册完成信息后,一般还需要进行短信验证,但是此时我们最主要的把数据已经写进到数据库中了,尔等待消息的过程有延迟,因此可以让用户注册完成后,立即进入系统中,而把发送消息的任务放到消息队列中,之后用户进行相关操作即可。
1.3 消息队列的两种模式
1)点对点模式
• 消费者主动拉取数据,消息收到后清除消息
2)发布/订阅模式
• 可以有多个topic主题(浏览、点赞、收藏、评论等)
• 消费者消费数据之后,不删除数据
• 每个消费者相互独立,都可以消费到数据
第二章 Kafka 基础架构
(1)Producer:消息生产者,就是向 Kafka broker 发消息的客户端。
(2)Consumer:消息消费者,向 Kafka broker 取消息的客户端。
(3)Consumer Group(CG):消费者组,由多个 consumer 组成。消费者组内每个消 费者负责消费不同分区的数据,一个分区只能由一个组内消费者消费;消费者组之间互不 影响。所有的消费者都属于某个消费者组,即消费者组是逻辑上的一个订阅者。 (4)Broker:一台 Kafka 服务器就是一个 broker。一个集群由多个 broker 组成。一个 broker 可以容纳多个 topic。
(5)Topic:可以理解为一个队列,生产者和消费者面向的都是一个 topic。
(6)Partition:为了实现扩展性,一个非常大的 topic 可以分布到多个 broker(即服 务器)上,一个 topic 可以分为多个 partition,每个 partition 是一个有序的队列。
(7)Replica:副本。一个 topic 的每个分区都有若干个副本,一个 Leader 和若干Follower。
(8)Leader:每个分区多个副本的“主”,生产者发送数据的对象,以及消费者消费数 据的对象都是 Leader。
(9)Follower:每个分区多个副本中的“从”,实时从 Leader 中同步数据,保持和 Leader 数据的同步。Leader 发生故障时,某个 Follower 会成为新的 Leader。
第三章 Kafka 命令行操作
3.1 主题命令行操作
查看当前服务器中的所有 topic(其中hadoop102是我的主机名称,已经配置好地址映射和ssh,9092为默认端口号)
bin/kafka-topics.sh --bootstrap-server hadoop102:9092 --list
查看 first 主题的详情
bin/kafka-topics.sh --bootstrap-server hadoop102:9092 --describe --topic first
修改分区数(注意:分区数只能增加,不能减少)
bin/kafka-topics.sh --bootstrap-server hadoop102:9092 --alter --topic first --partitions 4
删除 topic
bin/kafka-topics.sh --bootstrap-server hadoop102:9092 --delete --topic first
3.2 生产者命令行操作
1)查看操作生产者命令参数
bin/kafka-console-producer.sh
2)发送消息
bin/kafka-console-producer.sh --bootstrap-server hadoop102:9092 --topic first
3.3 消费者命令行操作
1)查看操作消费者命令参数
bin/kafka-console-consumer.sh
2)消费 first 主题中的数据
bin/kafka-console-consumer.sh --bootstrap-server hadoop102:9092 --topic first
3)把主题中所有的数据都读取出来(包括历史数据)。
bin/kafka-console-consumer.sh --bootstrap-server hadoop102:9092 --from-beginning --topic first
结束语
这次先简单的介绍到这里,下篇文章将详细的讲解kafka的生产者,broker集群以及消费者实现的原理。文章笔记参考尚硅谷资料。