现象
filebeat指向kafka之后,发现kafka无法自动创建对应的topic,导致filebeat日志一直报错,日志无法正常写入es。
2021-11-04T11:49:02.651+0800 INFO [publisher] pipeline/retry.go:219 retryer: send unwait signal to consumer
2021-11-04T11:49:02.651+0800 INFO [publisher] pipeline/retry.go:223 done
排查
- 检查了kafka的日志并无报错
- 检查kafka资源使用,发现内存使用较多,怀疑是资源不足无法创建对应的topic(无实际证据)
- 增加kafka内存上线和jvm参数内存最大值,重启pod
- 发现filebeat日志可以正常发送到kafka,但是logstash无法正常消费
- 查看logstash日志发现指向的是更新资源配置之前的kafka ip地址
- 重启logstash之后正常
待查
logstash配置的是kafka的service地址,为什么kafka后端重启之后logstash还是指向旧的kafka pod地址呢?