记一次kafka无法创建topic异常

1,107 阅读1分钟

现象

filebeat指向kafka之后,发现kafka无法自动创建对应的topic,导致filebeat日志一直报错,日志无法正常写入es。

2021-11-04T11:49:02.651+0800    INFO    [publisher]     pipeline/retry.go:219   retryer: send unwait signal to consumer
2021-11-04T11:49:02.651+0800    INFO    [publisher]     pipeline/retry.go:223     done

排查

  • 检查了kafka的日志并无报错
  • 检查kafka资源使用,发现内存使用较多,怀疑是资源不足无法创建对应的topic(无实际证据)
  • 增加kafka内存上线和jvm参数内存最大值,重启pod
  • 发现filebeat日志可以正常发送到kafka,但是logstash无法正常消费
  • 查看logstash日志发现指向的是更新资源配置之前的kafka ip地址
  • 重启logstash之后正常

待查

logstash配置的是kafka的service地址,为什么kafka后端重启之后logstash还是指向旧的kafka pod地址呢?