前言
在现代企业级应用中,处理海量数据的能力至关重要。Kafka作为一款高吞吐量的分布式消息系统,广泛应用于实时数据流处理。借助Spring Boot与Kafka的整合,开发者能够高效地构建稳定可靠的消息驱动应用。本篇文章将详细介绍如何在Spring Boot项目中集成Kafka集群,并实现消息的生产和消费。
环境
- Java 1.8
- Kafka 2.5.0
- Springboot 2.7.18
- Docker 24.0.4 [可选]
- Docker-compose v2.22.0 [可选]
集群搭建
-
编写
docker-compose.yml文件version: '2.1' services: zookeeper: image: 'bitnami/zookeeper:3.6.1' container_name: zookeeper restart: always environment: - ALLOW_ANONYMOUS_LOGIN=yes ports: - "2182:2181" volumes: - zoodata:/bitnami/zookeeper/data - /etc/localtime:/etc/localtime:ro mem_limit: 4g kafka01: image: 'bitnami/kafka:2.5.0' container_name: kafka01 restart: always ports: - "9096:9092" volumes: - data1:/bitnami/kafka/data - /etc/localtime:/etc/localtime:ro environment: - ALLOW_PLAINTEXT_LISTENER=yes - KAFKA_BROKER_ID=1 - KAFKA_ZOOKEEPER_CONNECT=zookeeper:2181 - KAFKA_LISTENERS=PLAINTEXT://0.0.0.0:9092 # 宿主机IP - KAFKA_ADVERTISED_LISTENERS=PLAINTEXT://10.0.0.7:9096 mem_limit: 4g depends_on: - zookeeper kafka02: image: 'bitnami/kafka:2.5.0' container_name: kafka02 restart: always ports: - "9097:9092" volumes: - data2:/bitnami/kafka/data - /etc/localtime:/etc/localtime:ro environment: - ALLOW_PLAINTEXT_LISTENER=yes - KAFKA_BROKER_ID=2 - KAFKA_ZOOKEEPER_CONNECT=zookeeper:2181 - KAFKA_LISTENERS=PLAINTEXT://0.0.0.0:9092 # 宿主机IP - KAFKA_ADVERTISED_LISTENERS=PLAINTEXT://10.0.0.7:9097 mem_limit: 4g depends_on: - zookeeper kafka03: image: 'bitnami/kafka:2.5.0' container_name: kafka03 restart: always ports: - "9098:9092" volumes: - data3:/bitnami/kafka/data - /etc/localtime:/etc/localtime:ro environment: - ALLOW_PLAINTEXT_LISTENER=yes - KAFKA_BROKER_ID=3 - KAFKA_ZOOKEEPER_CONNECT=zookeeper:2181 - KAFKA_LISTENERS=PLAINTEXT://0.0.0.0:9092 # 宿主机IP - KAFKA_ADVERTISED_LISTENERS=PLAINTEXT://10.0.0.7:9098 mem_limit: 4g depends_on: - zookeeper volumes: zoodata: data1: data2: data3: -
启动kafka集群
docker-compose up -d
springboot整合kafka
-
编写
pom.xml依赖配置文件<!-- springboot-web --> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-web</artifactId> </dependency> <!-- spring kafka 配置所需依赖 --> <dependency> <groupId>org.springframework.kafka</groupId> <artifactId>spring-kafka</artifactId> </dependency> <dependency> <groupId>org.projectlombok</groupId> <artifactId>lombok</artifactId> <optional>true</optional> </dependency> -
编写
application.yml应用配置文件spring: kafka: producer: # kafka集群地址 bootstrap-servers: rocky:9096,rocky:9097,rocky:9098 # 开启事务,必须在开启了事务的方法中发送,否则报错 # transaction-id-prefix: kafkaTx- # 发生错误后,消息重发的次数,开启事务必须设置大于0。 retries: 3 # acks=0 : 生产者在成功写入消息之前不会等待任何来自服务器的响应。 # acks=1 : 只要集群的首领节点收到消息,生产者就会收到一个来自服务器成功响应。 # acks=all :只有当所有参与复制的节点全部收到消息时,生产者才会收到一个来自服务器的成功响应。 # 开启事务时,必须设置为all acks: 1 # 当有多个消息需要被发送到同一个分区时,生产者会把它们放在同一个批次里。该参数指定了一个批次可以使用的内存大小,按照字节数计算。32768=32KB batch-size: 32768 # 生产者内存缓冲区的大小。33554432=32MB buffer-memory: 33554432 # 键的序列化方式 key-serializer: org.springframework.kafka.support.serializer.JsonSerializer # 值的序列化方式(建议使用Json,这种序列化方式可以无需额外配置传输实体类) value-serializer: org.springframework.kafka.support.serializer.JsonSerializer consumer: # kafka集群地址 bootstrap-servers: rocky:9096,rocky:9097,rocky:9098 # 消费者组 group-id: slr # 自动提交的时间间隔 在spring boot 2.X 版本中这里采用的是值的类型为Duration 需要符合特定的格式,如1S,1M,2H,5D #auto-commit-interval: 2s # 该属性指定了消费者在读取一个没有偏移量的分区或者偏移量无效的情况下该作何处理: # earliest:当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,从头开始消费分区的记录 # latest:当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,消费新产生的该分区下的数据(在消费者启动之后生成的记录) # none:当各分区都存在已提交的offset时,从提交的offset开始消费;只要有一个分区不存在已提交的offset,则抛出异常 auto-offset-reset: latest # 是否自动提交偏移量,默认值是true,为了避免出现重复数据和数据丢失,可以把它设置为false,然后手动提交偏移量 enable-auto-commit: false # 键的反序列化错误处理,防止一直报错不继续进行消费 key-deserializer: org.springframework.kafka.support.serializer.ErrorHandlingDeserializer # 值的反序列化错误处理,防止一直报错不继续进行消费 value-deserializer: org.springframework.kafka.support.serializer.ErrorHandlingDeserializer # 配置消费者的 Json 反序列化的可信赖包,反序列化实体类需要 properties: spring.json.trusted.packages: '*' # 键的反序列化方式 spring.deserializer.key.delegate.class: org.apache.kafka.common.serialization.StringDeserializer # 值的反序列化方式(建议使用Json,这种序列化方式可以无需额外配置传输实体类) spring.deserializer.value.delegate.class: org.springframework.kafka.support.serializer.JsonDeserializer # 这个参数定义了poll方法最多可以拉取多少条消息,默认值为500。如果在拉取消息的时候新消息不足500条,那有多少返回多少;如果超过500条,每次只返回500。 # 这个默认值在有些场景下太大,有些场景很难保证能够在5min内处理完500条消息, # 如果消费者无法在5分钟内处理完500条消息的话就会触发reBalance, # 然后这批消息会被分配到另一个消费者中,还是会处理不完,这样这批消息就永远也处理不完。 # 要避免出现上述问题,提前评估好处理一条消息最长需要多少时间,然后覆盖默认的max.poll.records参数 # 注:需要开启BatchListener批量监听才会生效,如果不开启BatchListener则不会出现reBalance情况 max-poll-records: 3 properties: # 两次poll之间的最大间隔,默认值为5分钟。如果超过这个间隔会触发reBalance max: poll: interval: ms: 600000 # 当broker多久没有收到consumer的心跳请求后就触发reBalance,默认值是10s session: timeout: ms: 10000 listener: # 在侦听器容器中运行的线程数,一般设置为 机器数*分区数 concurrency: 9 # 自动提交关闭,需要设置手动消息确认 ack-mode: manual_immediate # 消费监听接口监听的主题不存在时,默认会报错,所以设置为false忽略错误 missing-topics-fatal: false # 两次poll之间的最大间隔,默认值为5分钟。如果超过这个间隔会触发reBalance poll-timeout: 600000 -
生产者配置类
/** * Kafka生产者配置 */ @Slf4j @SpringBootConfiguration public class KafkaProviderConfig { @Value("${spring.kafka.producer.bootstrap-servers}") private String bootstrapServers; // @Value("${spring.kafka.producer.transaction-id-prefix}") // private String transactionIdPrefix; @Value("${spring.kafka.producer.acks}") private String acks; @Value("${spring.kafka.producer.retries}") private String retries; @Value("${spring.kafka.producer.batch-size}") private String batchSize; @Value("${spring.kafka.producer.buffer-memory}") private String bufferMemory; @Bean public Map<String, Object> producerConfigs() { Map<String, Object> props = new HashMap<>(16); props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, bootstrapServers); //acks=0 : 生产者在成功写入消息之前不会等待任何来自服务器的响应。 //acks=1 : 只要集群的首领节点收到消息,生产者就会收到一个来自服务器成功响应。 //acks=all :只有当所有参与复制的节点全部收到消息时,生产者才会收到一个来自服务器的成功响应。 //开启事务必须设为all props.put(ProducerConfig.ACKS_CONFIG, acks); //发生错误后,消息重发的次数,开启事务必须大于0 props.put(ProducerConfig.RETRIES_CONFIG, retries); //当多个消息发送到相同分区时,生产者会将消息打包到一起,以减少请求交互. 而不是一条条发送 //批次的大小可以通过batch.size 参数设置.默认是16KB //较小的批次大小有可能降低吞吐量(批次大小为0则完全禁用批处理)。 //比如说,kafka里的消息5秒钟Batch才凑满了16KB,才能发送出去。那这些消息的延迟就是5秒钟 //实测batchSize这个参数没有用 props.put(ProducerConfig.BATCH_SIZE_CONFIG, batchSize); //有的时刻消息比较少,过了很久,比如5min也没有凑够16KB,这样延时就很大,所以需要一个参数. 再设置一个时间,到了这个时间, //即使数据没达到16KB,也将这个批次发送出去 props.put(ProducerConfig.LINGER_MS_CONFIG, "5000"); //生产者内存缓冲区的大小 props.put(ProducerConfig.BUFFER_MEMORY_CONFIG, bufferMemory); //反序列化,和生产者的序列化方式对应 props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, JsonSerializer.class); props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, JsonSerializer.class); return props; } @Bean public ProducerFactory<String, Object> producerFactory() { DefaultKafkaProducerFactory<String, Object> factory = new DefaultKafkaProducerFactory<>(producerConfigs()); //开启事务,会导致 LINGER_MS_CONFIG 配置失效 // factory.setTransactionIdPrefix(transactionIdPrefix); return factory; } // @Bean // public KafkaTransactionManager<String, Object> kafkaTransactionManager(ProducerFactory<String, Object> producerFactory) { // return new KafkaTransactionManager<>(producerFactory); // } @Bean public KafkaTemplate<String, Object> kafkaTemplate() { return new KafkaTemplate<>(producerFactory()); } } -
消费者配置类
package com.liboshuai.starlink.slr.connector.common.config; import org.apache.kafka.clients.consumer.ConsumerConfig; import org.springframework.beans.factory.annotation.Value; import org.springframework.boot.SpringBootConfiguration; import org.springframework.context.annotation.Bean; import org.springframework.kafka.config.ConcurrentKafkaListenerContainerFactory; import org.springframework.kafka.config.KafkaListenerContainerFactory; import org.springframework.kafka.core.ConsumerFactory; import org.springframework.kafka.core.DefaultKafkaConsumerFactory; import org.springframework.kafka.listener.ConcurrentMessageListenerContainer; import org.springframework.kafka.listener.ContainerProperties; import org.springframework.kafka.support.serializer.JsonDeserializer; import java.util.HashMap; import java.util.Map; /** * Kafka消费者配置 */ @SpringBootConfiguration public class KafkaConsumerConfig { @Value("${spring.kafka.consumer.bootstrap-servers}") private String bootstrapServers; @Value("${spring.kafka.consumer.group-id}") private String groupId; @Value("${spring.kafka.consumer.enable-auto-commit}") private boolean enableAutoCommit; @Value("${spring.kafka.properties.session.timeout.ms}") private String sessionTimeout; @Value("${spring.kafka.properties.max.poll.interval.ms}") private String maxPollIntervalTime; @Value("${spring.kafka.consumer.max-poll-records}") private String maxPollRecords; @Value("${spring.kafka.consumer.auto-offset-reset}") private String autoOffsetReset; @Value("${spring.kafka.listener.concurrency}") private Integer concurrency; @Value("${spring.kafka.listener.missing-topics-fatal}") private boolean missingTopicsFatal; @Value("${spring.kafka.listener.poll-timeout}") private long pollTimeout; @Bean public Map<String, Object> consumerConfigs() { Map<String, Object> propsMap = new HashMap<>(16); propsMap.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, bootstrapServers); propsMap.put(ConsumerConfig.GROUP_ID_CONFIG, groupId); //是否自动提交偏移量,默认值是true,为了避免出现重复数据和数据丢失,可以把它设置为false,然后手动提交偏移量 propsMap.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, enableAutoCommit); //自动提交的时间间隔,自动提交开启时生效 propsMap.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG, "2000"); //该属性指定了消费者在读取一个没有偏移量的分区或者偏移量无效的情况下该作何处理: //earliest:当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,从头开始消费分区的记录 //latest:当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,消费新产生的该分区下的数据(在消费者启动之后生成的记录) //none:当各分区都存在已提交的offset时,从提交的offset开始消费;只要有一个分区不存在已提交的offset,则抛出异常 propsMap.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG, autoOffsetReset); //两次poll之间的最大间隔,默认值为5分钟。如果超过这个间隔会触发reBalance propsMap.put(ConsumerConfig.MAX_POLL_INTERVAL_MS_CONFIG, maxPollIntervalTime); //这个参数定义了poll方法最多可以拉取多少条消息,默认值为500。如果在拉取消息的时候新消息不足500条,那有多少返回多少;如果超过500条,每次只返回500。 //这个默认值在有些场景下太大,有些场景很难保证能够在5min内处理完500条消息, //如果消费者无法在5分钟内处理完500条消息的话就会触发reBalance, //然后这批消息会被分配到另一个消费者中,还是会处理不完,这样这批消息就永远也处理不完。 //要避免出现上述问题,提前评估好处理一条消息最长需要多少时间,然后覆盖默认的max.poll.records参数 //注:需要开启BatchListener批量监听才会生效,如果不开启BatchListener则不会出现reBalance情况 propsMap.put(ConsumerConfig.MAX_POLL_RECORDS_CONFIG, maxPollRecords); //当broker多久没有收到consumer的心跳请求后就触发reBalance,默认值是10s propsMap.put(ConsumerConfig.SESSION_TIMEOUT_MS_CONFIG, sessionTimeout); //序列化(建议使用Json,这种序列化方式可以无需额外配置传输实体类) propsMap.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, JsonDeserializer.class); propsMap.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, JsonDeserializer.class); return propsMap; } @Bean public ConsumerFactory<Object, Object> consumerFactory() { //配置消费者的 Json 反序列化的可信赖包,反序列化实体类需要 try (JsonDeserializer<Object> deserializer = new JsonDeserializer<>()) { deserializer.trustedPackages("*"); return new DefaultKafkaConsumerFactory<>(consumerConfigs(), new JsonDeserializer<>(), deserializer); } } @Bean public KafkaListenerContainerFactory<ConcurrentMessageListenerContainer<Object, Object>> kafkaListenerContainerFactory() { ConcurrentKafkaListenerContainerFactory<Object, Object> factory = new ConcurrentKafkaListenerContainerFactory<>(); factory.setConsumerFactory(consumerFactory()); //在侦听器容器中运行的线程数,一般设置为 机器数*分区数 factory.setConcurrency(concurrency); //消费监听接口监听的主题不存在时,默认会报错,所以设置为false忽略错误 factory.setMissingTopicsFatal(missingTopicsFatal); //自动提交关闭,需要设置手动消息确认 factory.getContainerProperties().setAckMode(ContainerProperties.AckMode.MANUAL_IMMEDIATE); factory.getContainerProperties().setPollTimeout(pollTimeout); //设置为批量监听,需要用List接收 factory.setBatchListener(true); return factory; } }
生产消费示例
生产者
最简单的生产者
@RestController
public class kafkaProducer {
@Autowired
private KafkaTemplate<String, Object> kafkaTemplate;
@GetMapping("/kafka/normal/{message}")
public void sendNormalMessage(@PathVariable("message") String message) {
kafkaTemplate.send("sb_topic", message);
}
}
带回调的生产者
kafkaTemplate 提供了一个回调方法 addCallback,我们可以在回调方法中监控消息是否发送成功 或 失败时做补偿处理,有两种写法,
/**
* 回调的第一种写法
* @param message
*/
@GetMapping("/kafka/callbackOne/{message}")
public void sendCallbackOneMessage(@PathVariable("message") String message) {
kafkaTemplate.send("sb_topic", message).addCallback(new SuccessCallback<SendResult<String, Object>>() {
//成功的回调
@Override
public void onSuccess(SendResult<String, Object> success) {
// 消息发送到的topic
String topic = success.getRecordMetadata().topic();
// 消息发送到的分区
int partition = success.getRecordMetadata().partition();
// 消息在分区内的offset
long offset = success.getRecordMetadata().offset();
System.out.println("发送消息成功1:" + topic + "-" + partition + "-" + offset);
}
}, new FailureCallback() {
//失败的回调
@Override
public void onFailure(Throwable throwable) {
System.out.println("发送消息失败1:" + throwable.getMessage());
}
});
}
发送消息成功1:sb_topic-0-3
简单消费:sb_topic-0=one
/**
* 回调的第二种写法
* @param message
*/
@GetMapping("/kafka/callbackTwo/{message}")
public void sendCallbackTwoMessage(@PathVariable("message") String message) {
kafkaTemplate.send("sb_topic", message).addCallback(new ListenableFutureCallback<SendResult<String, Object>>() {
@Override
public void onFailure(Throwable throwable) {
System.out.println("发送消息失败2:"+throwable.getMessage());
}
@Override
public void onSuccess(SendResult<String, Object> result) {
System.out.println("发送消息成功2:" + result.getRecordMetadata().topic() + "-"
+ result.getRecordMetadata().partition() + "-" + result.getRecordMetadata().offset());
}
});
}
发送消息成功2:sb_topic-0-4
简单消费:sb_topic-0=two
监听器
Kafka 提供了 ProducerListener 监听器来异步监听生产者消息是否发送成功,我们可以自定义一个 kafkaTemplate 添加 ProducerListener,当消息发送失败我们可以拿到消息进行重试或者把失败消息记录到数据库定时重试。
@Configuration
public class KafkaConfig {
@Autowired
ProducerFactory producerFactory;
@Bean
public KafkaTemplate<String, Object> kafkaTemplate() {
KafkaTemplate<String, Object> kafkaTemplate = new KafkaTemplate<String, Object>();
kafkaTemplate.setProducerListener(new ProducerListener<String, Object>() {
@Override
public void onSuccess(ProducerRecord<String, Object> producerRecord, RecordMetadata recordMetadata) {
System.out.println("发送成功 " + producerRecord.toString());
}
@Override
public void onSuccess(String topic, Integer partition, String key, Object value, RecordMetadata recordMetadata) {
System.out.println("发送成功 topic = " + topic + " ; partion = " + partition + "; key = " + key + " ; value=" + value);
}
@Override
public void onError(ProducerRecord<String, Object> producerRecord, Exception exception) {
System.out.println("发送失败" + producerRecord.toString());
System.out.println(exception.getMessage());
}
@Override
public void onError(String topic, Integer partition, String key, Object value, Exception exception) {
System.out.println("发送失败" + "topic = " + topic + " ; partion = " + partition + "; key = " + key + " ; value=" + value);
System.out.println(exception.getMessage());
}
});
return kafkaTemplate;
}
}
注意:当我们发送一条消息,既会走 ListenableFutureCallback 回调,也会走 ProducerListener 回调。
自定义分区器
我们知道,kafka 中每个 topic 被划分为多个分区,那么生产者将消息发送到 topic 时,具体追加到哪个分区呢?这就是所谓的分区策略,Kafka 为我们提供了默认的分区策略,同时它也支持自定义分区策略。其路由机制为:
- 若发送消息时指定了分区(即自定义分区策略),则直接将消息 append 到指定分区;
- 若发送消息时未指定 patition,但指定了 key(kafka 允许为每条消息设置一个 key),则对 key 值进行 hash 计算,根据计算结果路由到指定分区,这种情况下可以保证同一个 Key 的所有消息都进入到相同的分区;
- patition 和 key 都未指定,则使用 kafka 默认的分区策略,轮询选出一个 patition;
我们来自定义一个分区策略,将消息发送到我们指定的 partition,首先新建一个分区器类实现 Partitioner 接口,重写方法,其中 partition 方法的返回值就表示将消息发送到几号分区
public class CustomizePartitioner implements Partitioner {
@Override
public int partition(String s, Object o, byte[] bytes, Object o1, byte[] bytes1, Cluster cluster) {
//自定义分区规则,默认全部发送到0号分区
return 0;
}
@Override
public void close() {
}
@Override
public void configure(Map<String, ?> map) {
}
}
在 application.properties 中配置自定义分区器,配置的值就是分区器类的全路径名
# 自定义分区器
spring.kafka.producer.properties.partitioner.class=pers.zhang.config.CustomizePartitioner
事务提交
如果在发送消息时需要创建事务,可以使用 KafkaTemplate 的 executeInTransaction 方法来声明事务:
@GetMapping("/kafka/transaction/{message}")
public void sendTransactionMessage(@PathVariable("message") String message) {
//声明事务:后面报错消息不会发出去
kafkaTemplate.executeInTransaction(new KafkaOperations.OperationsCallback<String, Object, Object>() {
@Override
public Object doInOperations(KafkaOperations<String, Object> operations) {
operations.send("sb_topic", message + " test executeInTransaction");
throw new RuntimeException("fail");
}
});
// //不声明事务:后面报错但前面消息已经发送成功了
// kafkaTemplate.send("sb_topic", message + " test executeInNoTransaction");
// throw new RuntimeException("fail");
}
注意:如果声明了事务,需要在 application.yml 中指定:
spring:
kafka:
producer:
transaction-id-prefix: tx_ #事务id前缀
消费者
最简单的消费者
@Component
public class KafkaConsumer {
//监听消费
@KafkaListener(topics = {"sb_topic"})
public void onNormalMessage(ConsumerRecord<String, Object> record) {
System.out.println("简单消费:" + record.topic() + "-" + record.partition() + "=" +
record.value());
}
}
指定 topic、partition、offset 消费
前面我们在监听消费 topic1 的时候,监听的是 topic1 上所有的消息,如果我们想指定 topic、指定 partition、指定 offset 来消费呢?也很简单,@KafkaListener 注解已全部为我们提供
spring:
kafka:
listener:
type: batch #设置批量消费
consumer:
max-poll-records: 50 #每次最多消费多少条消息
属性解释:
id:消费者 IDgroupId:消费组 IDtopics:监听的 topic,可监听多个topicPartitions:可配置更加详细的监听信息,可指定 topic、parition、offset 监听,手动分区。
//批量消费
@KafkaListener(id = "consumer2", topics = {"sb_topic"}, groupId = "sb_group")
public void onBatchMessage(List<ConsumerRecord<String, Object>> records) {
System.out.println(">>> 批量消费一次,recoreds.size()=" + records.size());
for (ConsumerRecord<String, Object> record : records) {
System.out.println(record.value());
}
}
>>> 批量消费一次,recoreds.size()=4
hello
hello
hello
hello
>>> 批量消费一次,recoreds.size()=2
hello
hello
异常处理
ConsumerAwareListenerErrorHandler 异常处理器,新建一个 ConsumerAwareListenerErrorHandler 类型的异常处理方法,用 @Bean 注入,BeanName 默认就是方法名,然后我们将这个异常处理器的 BeanName 放到 @KafkaListener 注解的 errorHandler 属性里面,当监听抛出异常的时候,则会自动调用异常处理器。
//异常处理器
@Bean
public ConsumerAwareListenerErrorHandler consumerAwareErrorHandler() {
return new ConsumerAwareListenerErrorHandler() {
@Override
public Object handleError(Message<?> message, ListenerExecutionFailedException exception, Consumer<?, ?> consumer) {
System.out.println("消费异常:" + message.getPayload());
return null;
}
};
}
// 将这个异常处理器的BeanName放到@KafkaListener注解的errorHandler属性里面
@KafkaListener(topics = {"sb_topic"},errorHandler = "consumerAwareErrorHandler")
public void onMessage4(ConsumerRecord<?, ?> record) throws Exception {
throw new Exception("简单消费-模拟异常");
}
// 批量消费也一样,异常处理器的message.getPayload()也可以拿到各条消息的信息
@KafkaListener(topics = "sb_topic",errorHandler="consumerAwareErrorHandler")
public void onMessage5(List<ConsumerRecord<?, ?>> records) throws Exception {
System.out.println("批量消费一次...");
throw new Exception("批量消费-模拟异常");
}
批量消费一次...
消费异常:[ConsumerRecord(topic = sb_topic, partition = 0, leaderEpoch = 0, offset = 19, CreateTime = 1692604586558, serialized key size = -1, serialized value size = 5, headers = RecordHeaders(headers = [], isReadOnly = false), key = null, value = hello), ConsumerRecord(topic = sb_topic, partition = 0, leaderEpoch = 0, offset = 20, CreateTime = 1692604587164, serialized key size = -1, serialized value size = 5, headers = RecordHeaders(headers = [], isReadOnly = false), key = null, value = hello), ConsumerRecord(topic = sb_topic, partition = 0, leaderEpoch = 0, offset = 21, CreateTime = 1692604587790, serialized key size = -1, serialized value size = 5, headers = RecordHeaders(headers = [], isReadOnly = false), key = null, value = hello)]
消息过滤器
消息过滤器可以在消息抵达 consumer 之前被拦截,在实际应用中,我们可以根据自己的业务逻辑,筛选出需要的信息再交由 KafkaListener 处理,不需要的消息则过滤掉。
配置消息过滤只需要为 监听器工厂 配置一个 RecordFilterStrategy(消息过滤策略),返回 true 的时候消息将会被抛弃,返回 false 时,消息能正常抵达监听容器。
@Autowired
ConsumerFactory consumerFactory;
//消息过滤器
@Bean
public ConcurrentKafkaListenerContainerFactory filterContainerFactory() {
ConcurrentKafkaListenerContainerFactory factory = new ConcurrentKafkaListenerContainerFactory();
factory.setConsumerFactory(consumerFactory);
//被过滤的消息将被丢弃
factory.setAckDiscarded(true);
//消息过滤策略
factory.setRecordFilterStrategy(new RecordFilterStrategy() {
@Override
public boolean filter(ConsumerRecord consumerRecord) {
if (Integer.parseInt(consumerRecord.value().toString()) % 2 == 0) {
return false;
}
return true;
}
});
return factory;
}
//消息过滤监听
@KafkaListener(topics = {"sb_topic"},containerFactory = "filterContainerFactory")
public void onMessage6(ConsumerRecord<?, ?> record) {
System.out.println(record.value());
}
上面实现了一个 "过滤奇数、接收偶数" 的过滤策略,我们向 topic 发送 0-9 总共 10 条消息,看一下监听器的消费情况,可以看到监听器只消费了偶数:
消息转发
在实际开发中,我们可能有这样的需求,应用 A 从 TopicA 获取到消息,经过处理后转发到 TopicB,再由应用 B 监听处理消息,即一个应用处理完成后将该消息转发至其他应用,完成消息的转发。
在 SpringBoot 集成 Kafka 实现消息的转发也很简单,只需要通过一个 @SendTo 注解,被注解方法的 return 值即转发的消息内容,如下:
//消息转发 从sb_topic转发到sb_topic2
@KafkaListener(topics = {"sb_topic"})
@SendTo("sb_topic2")
public String onMessage7(ConsumerRecord<?, ?> record) {
return record.value()+"-forward message";
}
@KafkaListener(topics = {"sb_topic2"})
public void onMessage8(ConsumerRecord<?, ?> record) {
System.out.println("收到sb_topic转发过来的消息:" + record.value());
}
收到sb_topic转发过来的消息:hello-forward message
收到sb_topic转发过来的消息:hello-forward message
收到sb_topic转发过来的消息:hello-forward message
收到sb_topic转发过来的消息:hello-forward message
定时启动、停止
默认情况下,当消费者项目启动的时候,监听器就开始工作,监听消费发送到指定 topic 的消息,那如果我们不想让监听器立即工作,想让它在我们指定的时间点开始工作,或者在我们指定的时间点停止工作,该怎么处理呢——使用 KafkaListenerEndpointRegistry,下面我们就来实现:
- 禁止监听器自启动;
- 创建两个定时任务,一个用来在指定时间点启动定时器,另一个在指定时间点停止定时器;
新建一个定时任务类,用注解 @EnableScheduling 声明,KafkaListenerEndpointRegistry 在 Spring 中已经被注册为 Bean,直接注入,设置禁止 KafkaListener 自启动
@EnableScheduling
@Component
public class CronTimer {
/**
* @KafkaListener注解所标注的方法并不会在IOC容器中被注册为Bean,
* 而是会被注册在KafkaListenerEndpointRegistry中,
* 而KafkaListenerEndpointRegistry在SpringIOC中已经被注册为Bean
**/
@Autowired
private KafkaListenerEndpointRegistry registry;
@Autowired
private ConsumerFactory consumerFactory;
// 监听器容器工厂(设置禁止KafkaListener自启动)
@Bean
public ConcurrentKafkaListenerContainerFactory delayContainerFactory() {
ConcurrentKafkaListenerContainerFactory container = new ConcurrentKafkaListenerContainerFactory();
container.setConsumerFactory(consumerFactory);
//禁止KafkaListener自启动
container.setAutoStartup(false);
return container;
}
// 监听器
@KafkaListener(id="timingConsumer",topics = "sb_topic",containerFactory = "delayContainerFactory")
public void onMessage1(ConsumerRecord<?, ?> record){
System.out.println("消费成功:"+record.topic()+"-"+record.partition()+"-"+record.value());
}
// 定时启动监听器
@Scheduled(cron = "0 42 11 * * ? ")
public void startListener() {
System.out.println("启动监听器...");
// "timingConsumer"是@KafkaListener注解后面设置的监听器ID,标识这个监听器
if (!registry.getListenerContainer("timingConsumer").isRunning()) {
registry.getListenerContainer("timingConsumer").start();
}
//registry.getListenerContainer("timingConsumer").resume();
}
// 定时停止监听器
@Scheduled(cron = "0 45 11 * * ? ")
public void shutDownListener() {
System.out.println("关闭监听器...");
registry.getListenerContainer("timingConsumer").pause();
}
}
启动项目,触发生产者向 topic1 发送消息,可以看到 consumer 没有消费,因为这时监听器还没有开始工作,
11:42 分监听器启动开始工作,消费消息
11:45 分监听器停止工作:
手动确认消息
默认情况下 Kafka 的消费者是自动确认消息的,通常情况下我们需要在业务处理成功之后手动触发消息的签收,否则可能会出现:消息消费到一半消费者异常,消息并未消费成功但是消息已经自动被确认,也不会再投递给消费者,也就导致消息丢失了。
当 auto.commit.enable 设置为 false 时,表示 kafak 的 offset 由 customer 手动维护,spring-kafka 提供了通过 ackMode 的值表示不同的手动提交方式;
public enum AckMode {
// 当每一条记录被消费者监听器(ListenerConsumer)处理之后提交
RECORD,
// 当每一批poll()的数据被消费者监听器(ListenerConsumer)处理之后提交
BATCH,
// 当每一批poll()的数据被消费者监听器(ListenerConsumer)处理之后,距离上次提交时间大于TIME时提交
TIME,
// 当每一批poll()的数据被消费者监听器(ListenerConsumer)处理之后,被处理record数量大于等于COUNT时提交
COUNT,
// TIME | COUNT 有一个条件满足时提交
COUNT_TIME,
// 当每一批poll()的数据被消费者监听器(ListenerConsumer)处理之后, 手动调用Acknowledgment.acknowledge()后提交
MANUAL,
// 手动调用Acknowledgment.acknowledge()后立即提交
MANUAL_IMMEDIATE,
}
如果设置 AckMode 模式为MANUAL或者MANUAL_IMMEDIATE, 则需要对监听消息的方法中,引入Acknowledgment对象参数,并调用 acknowledge() 方法进行手动提交;
第一步:添加 kafka 配置,把 spring.kafka.listener.ack-mode = manual 设置为手动
spring:
kafka:
listener:
ack-mode: manual
consumer:
enable-auto-commit: false
第二步;消费消息的时候,给方法添加 Acknowledgment 参数签收消息:
@KafkaListener(topics = {"sb_topic"})
public void onMessage9(ConsumerRecord<String, Object> record, Acknowledgment ack) {
System.out.println("收到消息:" + record.value());
//确认消息
ack.acknowledge();
}
注解消费示例
简单消费
/**
* 指定一个消费者组,一个主题主题。
* @param record
*/
@KafkaListener(topics = IPHONE_TOPIC,groupId = APPLE_GROUP)
public void simpleConsumer(ConsumerRecord<String, String> record) {
System.out.println("进入simpleConsumer方法");
System.out.printf(
"分区 = %d, 偏移量 = %d, key = %s, 内容 = %s,创建消息的时间戳 =%d%n",
record.partition(),
record.offset(),
record.key(),
record.value(),
record.timestamp()
);
}
监听多个主题
/**
* 指定多个主题。
*
* @param record
*/
@KafkaListener(topics = {IPHONE_TOPIC,IPAD_TOPIC},groupId = APPLE_GROUP)
public void topics(ConsumerRecord<String, String> record) {
System.out.println("进入topics方法");
System.out.printf(
"主题 = %s,分区 = %d, 偏移量 = %d, key = %s, 内容 = %s,创建消息的时间戳 =%d%n",
record.topic(),
record.partition(),
record.offset(),
record.key(),
record.value(),
record.timestamp()
);
}
监听一个主题,指定分区消费
/**
* 监听一个主题,且指定消费主题的哪些分区。
* 参数详解:消费者组=apple_group;监听主题=iphoneTopic;只消费的分区=1,2;消费者数量=2
* @param record
*/
@KafkaListener(
groupId = APPLE_GROUP,
topicPartitions = {
@TopicPartition(topic = IPHONE_TOPIC, partitions = {"1", "2"})
},
concurrency = "2"
)
public void consumeByPattern(ConsumerRecord<String, String> record) {
System.out.println("consumeByPattern");
System.out.printf(
"主题 = %s,分区 = %d, 偏移量 = %d, key = %s, 内容 = %s,创建消息的时间戳 =%d%n",
record.topic(),
record.partition(),
record.offset(),
record.key(),
record.value(),
record.timestamp()
);
}
指定多个分区,指定起始偏移量,多线程消费
/**
* 指定多个分区从哪个偏移量开始消费。
* 10个线程,也就是10个消费者
*/
@KafkaListener(
groupId = APPLE_GROUP,
topicPartitions = {
@TopicPartition(
topic = IPAD_TOPIC,
partitions = {"0","1"},
partitionOffsets = {
@PartitionOffset(partition = "2", initialOffset = "10"),
@PartitionOffset(partition = "3", initialOffset = "0"),
}
)
},
concurrency = "10"
)
public void consumeByPartitionOffsets(ConsumerRecord<String, String> record) {
System.out.println("consumeByPartitionOffsets");
System.out.printf(
"主题 = %s,分区 = %d, 偏移量 = %d, key = %s, 内容 = %s,创建消息的时间戳 =%d%n",
record.topic(),
record.partition(),
record.offset(),
record.key(),
record.value(),
record.timestamp()
);
}
监听多个主题,指定多个分区,指定起始偏移量
/**
* 指定多个主题。参数详解如上面的方法。
* @param record
*/
@KafkaListener(
groupId = APPLE_GROUP,
topicPartitions = {
@TopicPartition(topic = IPHONE_TOPIC, partitions = {"1", "2"}),
@TopicPartition(topic = IPAD_TOPIC, partitions = "1",
partitionOffsets = @PartitionOffset(partition = "0", initialOffset = "5"))
},
concurrency = "4"
)
public void topics2(ConsumerRecord<String, String> record) {
System.out.println("topics2");
System.out.printf(
"主题 = %s,分区 = %d, 偏移量 = %d, key = %s, 内容 = %s,创建消息的时间戳 =%d%n",
record.topic(),
record.partition(),
record.offset(),
record.key(),
record.value(),
record.timestamp()
);
}
指定多个监听器
/**
* 指定多个消费者组。参数详解如上面的方法。
*
* @param record
*/
@KafkaListeners({
@KafkaListener(
groupId = APPLE_GROUP,
topicPartitions = {
@TopicPartition(topic = IPHONE_TOPIC, partitions = {"1", "2"}),
@TopicPartition(topic = IPAD_TOPIC, partitions = "1",
partitionOffsets = @PartitionOffset(partition = "0", initialOffset = "5"))
},
concurrency = "3"
),
@KafkaListener(
groupId = XM_GROUP,
topicPartitions = {
@TopicPartition(topic = XMPHONE_TOPIC, partitions = {"1", "2"}),
@TopicPartition(topic = XMPAD_TOPIC, partitions = "1",
partitionOffsets = @PartitionOffset(partition = "0", initialOffset = "5"))
},
concurrency = "3"
)
}
)
public void groupIds(ConsumerRecord<String, String> record) {
System.out.println("groupIds");
System.out.println("内容:" + record.value());
System.out.println("分区:" + record.partition());
System.out.println("偏移量:" + record.offset());
System.out.println("创建消息的时间戳:" + record.timestamp());
}
手动提交偏移量
/**
* 设置手动提交偏移量
*
* @param record
*/
@KafkaListener(
topics = IPHONE_TOPIC,
groupId = APPLE_GROUP,
//3个消费者
concurrency = "3"
)
public void setCommitType(ConsumerRecord<String, String> record, Acknowledgment ack) {
System.out.println("setCommitType");
System.out.println("内容:" + record.value());
System.out.println("分区:" + record.partition());
System.out.println("偏移量:" + record.offset());
System.out.println("创建消息的时间戳:" + record.timestamp());
ack.acknowledge();
}
结语
通过本篇文章的讲解,您应该对Spring Boot与Kafka的整合有了深入的了解。从环境配置到代码编写,我们一步步完成了Kafka集群的搭建和消息的生产消费。希望这篇文章能为您的开发工作提供实用的帮助,助力您在消息驱动架构中取得更大的成功。