docker-compose安装ES集群以及kibanna并配置账号密码,添加ik分词器

249 阅读6分钟

配置文件

docker-compose配置文件

在同一个目录下新建配置文件 vi docker-compose.yml

挂载的目录会自动创建

version: '3'
networks:
  es-net:
    external: true
services:
 kibana:
  image: kibana:7.17.4
  restart: always  
  container_name: kibana
  environment:
    - XPACK_GRAPH_ENABLED=true
    - TIMELION_ENABLED=true
  volumes:
    - ./kibana/kibana.yml:/usr/share/kibana/config/kibana.yml
  networks:
    - es-net
  ports:
    - '15602:5601' 

 elasticsearch1:
  image: elasticsearch:7.17.4
  restart: always  
  container_name: es-master
  volumes:
    - ./data/master:/usr/share/elasticsearch/data
    # 后面挂载分词器的目录
    - ./plugins:/usr/share/elasticsearch/plugins
    - ./elasticsearch_master.yml:/usr/share/elasticsearch/config/elasticsearch.yml
    # 这个是把生成的证书挂载到es节点容器内,后面配置密码时会用到,es集群不需要配置密码的可以删除
    # 这个账号密码的映射需要在配置好账号密码,并且把.p12文件从容器中复制出来了,再进行映射,刚开始先注释
    # 不然映射会自动创建好名为elastic-certificates.p12的文件,在配置时就会报错,导致容器一直重启
    - ./config/elastic-certificates.p12:/usr/share/elasticsearch/config/elastic-certificates.p12
  networks:
    - es-net
  environment:
    - "ES_JAVA_OPTS=-Xms512m -Xmx512m"
  ports:
    - '19210:9200'
    - '19310:9300'
  privileged: true

 elasticsearch2:
  image: elasticsearch:7.17.4
  restart: always  
  container_name: es-slave1
  volumes:
    - ./data/slave1:/usr/share/elasticsearch/data
    - ./plugins:/usr/share/elasticsearch/plugins
    - ./elasticsearch_slave1.yml:/usr/share/elasticsearch/config/elasticsearch.yml
    - ./config/elastic-certificates.p12:/usr/share/elasticsearch/config/elastic-certificates.p12
  networks:
    - es-net
  environment:
    - "ES_JAVA_OPTS=-Xms512m -Xmx512m"
  ports:
    - '19220:9200'
    - '19320:9300'
  privileged: true

 elasticsearch3:
  image: elasticsearch:7.17.4
  restart: always
  container_name: es-slave2
  volumes:
    - ./data/slave2:/usr/share/elasticsearch/data
    - ./plugins:/usr/share/elasticsearch/plugins
    - ./elasticsearch_slave2.yml:/usr/share/elasticsearch/config/elasticsearch.yml
    - ./config/elastic-certificates.p12:/usr/share/elasticsearch/config/elastic-certificates.p12
  networks:
    - es-net
  environment:
    - "ES_JAVA_OPTS=-Xms512m -Xmx512m"
  ports:
    - '19230:9200'
    - '19330:9300'
  privileged: true

es-master服务器配置文件

vi elasticsearch_master.yml

discovery.seed_hosts属性直接填容器名,因为es的三个节点使用的是同一个network,可以直接通过容器名互相访问

# 集群名称
cluster.name: es-cluster
# 节点名称
node.name: es-node-1
# 绑定host,0.0.0.0代表当前节点的ip
network.host: 0.0.0.0
# 表示这个节点是否可以充当主节点
node.master: true
# 是否充当数据节点
node.data: true
# 所有主从节点
discovery.seed_hosts: ["es-master", "es-slave1", "es-slave2"]
# 这个参数决定了在选主过程中需要 有多少个节点通信  预防脑裂 N/2+1
discovery.zen.minimum_master_nodes: 3
#初始化主节点
cluster.initial_master_nodes: es-node-1
# 单节点上可以开启的ES存储实例的个数,没配置的话会报一个错误
node.max_local_storage_nodes: 3

es-slave1服务器配置文件

vi elasticsearch_slave1.yml

cluster.name: es-cluster
node.name: es-node-2
network.host: 0.0.0.0
node.master: true
node.data: true
discovery.seed_hosts: ["es-master", "es-slave1", "es-slave2"]
discovery.zen.minimum_master_nodes: 3
cluster.initial_master_nodes: es-node-1
node.max_local_storage_nodes: 3

es-slave2服务器配置文件

vi elasticsearch_slave2.yml

cluster.name: es-cluster
node.name: es-node-3
network.host: 0.0.0.0
node.master: true
node.data: true
discovery.seed_hosts: ["es-master", "es-slave1", "es-slave2"]
discovery.zen.minimum_master_nodes: 3
cluster.initial_master_nodes: es-node-1
node.max_local_storage_nodes: 3

kibana配置文件

创建建kibana文件夹存放kibana的配置文件

mkdir kibana

vi kibana/kibana.yml

server.name: kibana
server.host: "0"
# 可以填容器名加端口,也可以用宿主机ip和映射的端口
elasticsearch.hosts: [ "http://es-master:9200/", "http://es-slave1:9200", "http://es-slave2:9200" ]
xpack.monitoring.ui.container.elasticsearch.enabled: true
i18n.locale: zh-CN
elasticsearch.username: "elastic"
elasticsearch.password: "66668888"
server.port: 5601

启动服务

在docker-compose.yml文件所在的目录执行如下命令

docker-compose up -d --build

如果配置文件名不是docker-compose.yml,可使用

docker-compose -f 文件名 up -d

使用<http://宿主机ip:port/_cat/nodes 查看ES集群> 正常情况如下图 image.png

访问kibana http://宿主机ip:port/

访问ES也是通过宿主机的ip+映射到容器的ip访问,如19200:9200, 就是用19200

ES集群、Kibana配置用户名密码

添加配置

  1. 编辑每个节点的elasticsearch.yml 加入如下配置:
# 开启x-pack功能,并指定证书位置
xpack.security.enabled: true
xpack.security.transport.ssl.enabled: true
xpack.security.transport.ssl.verification_mode: certificate
# 下面两个配置在生成elastic-certificates.p12文件时无需配置,会报错的,一样导致容器一直重启
# 在生成好elastic-certificates.p12文件后并且映射进容器了,再解开注释
xpack.security.transport.ssl.keystore.path: /usr/share/elasticsearch/config/elastic-certificates.p12
xpack.security.transport.ssl.truststore.path: /usr/share/elasticsearch/config/elastic-certificates.p12
# 我这里报了一个找不到配置文件的错误
# 正常是下面这样的,由于是docker容器中配置,,所以写的是绝对路径
# xpack.security.transport.ssl.keystore.path: elastic-certificates.p12
# xpack.security.transport.ssl.truststore.path: elastic-certificates.p12

生成证书

配置好了的话,就可以通过

docker exec -it es-master /bin/bash

这个命令进入容器开始生成证书

随便选择一个es节点进入即可

输入如下命令生成证书

./bin/elasticsearch-certutil cert -out config/elastic-certificates.p12 -pass ""
# 根据提示输入y即可

执行完毕后即可在容器的elasticsearch/config目录下看到名为elastic-certificates.p12的证书文件

记录下路径及文件名: 快捷键ctrl+D退出容器

我的路径是: /usr/share/elasticsearch/config/elastic-certificates.p12

这个路径即是配置文件中的路径, 进到配置文件中进行替换 image.png

执行dcoker-compose文件时,映射的路径都会自动创建好

通过下面的docker命令把容器中的证书文件复制到宿主机的config目录中,上面docker-compose.yml文件中已经做了挂载

docker cp es-master:/usr/share/elasticsearch/config/elastic-certificates.p12 ./config

确保配置文件的新内容已经重新挂载进入容器并且当前用户拥有执行权限再映射进所有容器中

给证书文件添加可执行权限(路径按自己的来哈)

chomd +x elastic-certificates.p12

重启es集群

如果发现新加配置文件内容没有进入容器中

docker ps 查看所有启动的容器

删除所有相关容器 docker rm -f 容器名

重新运行 docker-compose up -d --build

创建用户名及密码

重新进入es集群中一个容器

docker exec -it es-master /bin/bash

执行命令: ./bin/elasticsearch-setup-passwords -h

image.png

自动创建密码

./bin/elasticsearch-setup-passwords auto
# 对应账号的密码会自动生成,一定要拷贝下来!!!!

手动创建密码

./bin/elasticsearch-setup-passwords interactive
# 先输入y
# 然后依次给es预设的账号设置密码
### ps:有七八个账号要设置,要么一一记录下来,要么设置成一样的

设置完成后,访问kibana或者es就需要账号密码了

测试下: http://宿主机ip:port/_cat/nodes

输入账号:elastic

输入密码: *********** image.png

访问成功

添加ik分词器

我这里是自己下载分词器并上传到服务器 分词器下载地址 github.com/medcl/elast…

版本很多, 选择合适的,最好是和es相对应的版本 我是7.17.4

把分词器上传到宿主机的挂载目录plugins中

# 解压zip文件需要安装一个zip的工具
sudo apt-get install zip
# 解压并指定文件夹名称为ik
unzip elasticsearch-analysis-ik-7.17.4.zip -d ik
# 删除elasticsearch-analysis-ik-7.17.4.zip
rm -rf elasticsearch-analysis-ik-7.17.4.zip

添加自己的词库

词库是啥嘞,就是你在这个词库文件中加入词语

如:人们必须有信

当es在使用ik对这句话进行分词时"人们必须有信仰"

就会把"人们必须有信"做为一次单独的词

这是我用的开发人员通"用词库,下载下来可以直接使用 链接:pan.baidu.com/s/1Jr9LGjST… 提取码:cmcc

把词库文件上传到plugins/ik/config/目录下 修改plugins/ik/config/IKAnalyzer.cfg.xml配置文件

红框中改为你的词库文件全称 image.png

确保生效,我把所有的容器删了重新编排了一次

docker rm -f es-master es-slave1 es-slave2

docker-compose up -d --build

测试默认分词器和ik分词器

下面的分词的粒度不同,自己去kibana上测试吧

GET _analyze
{
  "text": "d图像!"
}

GET _analyze
{
  "analyzer": "ik_smart", 
  "text": "d图像"
}

GET _analyze
{
  "analyzer": "ik_max_word", 
  "text": "d图像"
}