ELasticSearch安装使用过程中遇到的坑的解决方案,以及使用Kibana操作ELasticSearch_安装kibana后,看不到elastic菜单

65 阅读8分钟

还有更简单的方法是在head界面创建索引库,切换到索引---新建索引

效果如下: 

2.2 创建映射

2.2.1 概念说明

在索引中每个文档都包括了一个或多个field,创建映射就是向索引库中创建field的过程,下边是document和field
与关系数据库的概念的类比:
文档(Document)----------------Row记录
字段(Field)-------------------Columns 列
注意:6.0之前的版本有type(类型)概念,type相当于关系数据库的表,ES官方将在ES8.0版本中彻底删除type。
上边讲的创建索引库相当于关系数据库中的数据库还是表?
1、如果相当于数据库就表示一个索引库可以创建很多不同类型的文档,这在ES中也是允许的。
2、如果相当于表就表示一个索引库只能存储相同类型的文档,ES官方建议 在一个索引库中只存储相同类型的文
档。

可以参考官网文档说明:Removal of mapping types

2.2.2 创建映射
我们要把课程信息存储到ES中,这里我们创建xiaomifeng1010索引库的映射,先来一个简单的映射,如下:
发送:post http://localhost:9200/索引库名称/\_mapping  (elasticsearch7.3.2弱化了type,所以不能加doc了,加了doc会报错illegal_argument_exception ,6.x版本的需要写成post http://localhost:9200/索引库名称/类型名称/_mapping
创建类型为xiaomifeng1010的映射,共包括三个字段:name、age、email
(由于elasticsearch 6.x版本还没有将type彻底删除,所以暂时把type起一个没有特殊意义的名字。之前创建的xc_course是使用6.2.1版本创建的,所以创建映射需要写成如下:
post 请求:http://localhost:9200/xc\_course/doc/\_mapping
表示:在xc_course索引库下的doc类型下创建映射。doc是类型名(官方之前类比为关系型数据库中的table),可以自定义,在ES6.0中要弱化类型的概念,
给它起一个没有具体业务意义的名称。)

7.3.2版本,创建映射,仍然可以使用postman

put http://localhost:9200/xiaomifeng1010/\_mapping

现在到head界面查看xiaomifeng1010索引信息

查看索引信息,可以看到映射的信息(即索引库的约束,相当于定义关系型数据库数据表字段类型)

 

2.3 创建文档
ES中的文档相当于MySQL数据库表中的记录。
发送:Post http://localhost:9200/xiaomifeng1010/\_doc/
(如果不指定id值ES会自动生成ID)

现在查看head界面:

 

可以看到记录已经插入进去了

2.4 搜索文档

1、根据xiaomifeng1010索引库中的记录的id查询文档
发送:get http://localhost:9200/xiaomifeng1010/\_doc/i-LbhW0B6mPtB13laPzf

 使用postman测试:

2、查询所有记录
发送 get http://localhost:9200/xiaomifeng1010/\_doc/\_search

为了可以查到多条记录,现在再插入一条记录

然后再执行查询:

took:本次操作花费的时间,单位为毫秒。
timed_out:请求是否超时
_shards:说明本次操作共搜索了哪些分片
hits:搜索命中的记录
hits.total : 符合条件的文档总数 hits.hits :匹配度较高的前N个文档
hits.max_score:文档匹配得分,这里为最高分
_score:每个文档都有一个匹配度得分,按照降序排列。
_source:显示了文档的原始内容。
3、查询名称中包括elite关键字的的记录
发送:get http://localhost:9200/xiaomifeng1010/\_doc/\_search?q=name:elite


4、查询年龄为10岁的记录
发送 get http://localhost:9200/xiaomifeng1010/\_doc/\_search?q=age:10

 三、IK分词器

3.1测试elasticsearch默认的分词器
在添加文档时会进行分词,索引中存放的就是一个一个的词(term),当你去搜索时就是拿关键字去匹配词,最终
找到词关联的文档。
测试当前索引库使用的分词器:
post 发送:localhost:9200/_analyze
{"text":"测试分词器,后边是测试内容:spring cloud实战"}
结果如下:


 会发现分词的效果将 “测试” 这个词拆分成两个单字“测”和“试”,这是因为当前索引库使用的分词器对中文就是单字
分词。

3.2 安装IK分词器
使用IK分词器可以实现对中文分词的效果。
下载IK分词器:(Github地址:github.com/medcl/elast…
下载zip:

然后下载最新版7.3.2版本

 下载之后,解压zip文件,然后将解压后的文件放在ES安装目录的plugins下的目录下

然后重启elasticsearch服务,使ik分词器插件加载并生效

测试分词效果:
发送:post localhost:9200/_analyze
{"text":"测试分词器,后边是测试内容:spring cloud实战","analyzer":"ik_max_word" }

3.3 两种分词模式
ik分词器有两种分词模式:ik_max_word和ik_smart模式。(这两种模式会在下边的kibana中演示,这里就不用postman演示了)
1、ik_max_word
会将文本做最细粒度的拆分,比如会将“中华人民共和国人民大会堂”拆分为“中华人民共和国、中华人民、中华、
华人、人民共和国、人民、共和国、大会堂、大会、会堂等词语。
2、ik_smart
会做最粗粒度的拆分,比如会将“中华人民共和国人民大会堂”拆分为中华人民共和国、人民大会堂。
测试两种分词模式:

发送:post localhost:9200/_analyze
{"text":"中华人民共和国人民大会堂","analyzer":"ik_smart" }

3.4 自定义词库
如果要让分词器支持一些专有词语,可以自定义词库。
iK分词器自带一个main.dic的文件,此文件为词库文件

用notepad++打开main.dic

 

看到里边有很多中文词汇 

当然我们自己可以在上边的目录中新建一个my.dic文件(注意文件格式为utf-8(不要选择utf-8 BOM))
可以在其中自定义词汇:
然后在配置文件IKAnalyzer.cfg.xml中配置my.dic的相关信息

 重启ES,测试分词效果:
发送:post localhost:9200/_analyze
{"text":"测试分词器,后边是测试内容:spring cloud实战","analyzer":"ik_max_word" }

四、使用kibana可视化界面来操作elasticsearch

kibana界面有个扳手的图标(开发工具),点击进入console控制台,通过命令(官方称为api)操作elasticsearch

按照官方的例子来创建索引,并同时指定确切的映射

下边在kibana中操作

 这样也顺利创建了索引和映射

接下来添加field

在kibana中操作:

 

执行成功

接下来查看一下索引库和映射