持续创作,加速成长!这是我参与「掘金日新计划 · 6 月更文挑战」的第16天,点击查看活动详情
12. ELasticsearch搜索引擎(上)
12.1 什么是ELasticsearch
ELasticsearch 是一款非常强大的开源搜索引擎,具备非常多强大功能,可以帮助我们从海量数据中快速找到需要的内容,可以用来实现搜索、日志统计、分析、系统监控等功能。
12.2 倒排索引
首先,倒排索引的概念是基于 MySQL 这样的正向索引而言的。
如果是根据 id 查询,那么直接走索引,查询速度非常快。
但如果是基于 title 做模糊查询,只能是逐行扫描数据,流程如下:
- 用户搜索数据,条件是 title 符合
"%手机%" - 逐行获取数据,比如 id 为 1 的数据
- 判断数据中的 title 是否符合用户搜索条件
- 如果符合则放入结果集,不符合则丢弃。然后回到步骤1
逐行扫描,也就是全表扫描,随着数据量增加,其查询效率也会越来越低。
而倒排索引中有两个非常重要的概念:
- 文档(
Document):用来搜索的数据,其中的每一条数据就是一个文档。例如一个网页、一个商品信息- 词条(
Term):对文档数据或用户搜索数据,利用某种算法分词,得到的具备含义的词语就是词条。例如:我是中国人,就可以分为:我、是、中国人、中国、国人这样的几个词条
创建倒排索引是对正向索引的一种特殊处理,流程如下:
- 将每一个文档的数据利用算法分词,得到一个个词条
- 创建表,每行数据包括词条、词条所在文档 id、位置等信息
- 因为词条唯一性,可以给词条创建索引,例如 hash 表结构索引
倒排索引中包含两部分内容:
-
词条词典(Term Dictionary): 记录所有词条,以及词条与倒排列表(Posting List)之间的关系,会给词条创建索引,提高查询和插入效率
-
倒排列表(Posting List): 记录词条所在的文档id、词条出现频率、词条在文档中的位置等信息
- 文档id:用于快速获取文档
- 词条频率(TF):文档在词条出现的次数,用于评分
倒排索引的搜索流程如下(以搜索"华为手机"为例):
- 用户输入条件
"华为手机"进行搜索 - 对用户输入内容分词,得到词条:
华为、手机 - 拿着词条在倒排索引中查找,可以得到包含词条的文档 id 有 1、2、3
- 拿着文档 id 到正向索引中查找具体文档
虽然要先查询倒排索引,再查询正向索引,但是词条和文档id 都建立了索引,查询速度非常快!无需全表扫描。
为什么一个叫做正向索引,一个叫做倒排索引呢?
正向索引是最传统的,根据 id 索引的方式。但根据词条查询时,必须先逐条获取每个文档,然后判断文档中是否包含所需要的词条,是根据文档找词条的过程
倒排索引则相反,是先找到用户要搜索的词条,根据得到的文档 id 获取该文档。是根据词条找文档的过程
12.3 文档和字段
elasticsearch是面向文档存储的,可以是数据库中的一条商品数据,一个订单信息。文档数据会被序列化为json格式后存储在elasticsearch中。
而 JSON 文档中往往包含很多的字段(Field) ,类似于数据库中的列。
12.4 索引和映射
索引(Index) ,就是相同类型的文档的集合。
例如:
- 所有用户文档,就可以组织在一起,称为用户的索引;
- 所有商品的文档,可以组织在一起,称为商品的索引;
- 所有订单的文档,可以组织在一起,称为订单的索引;
因此,我们可以把索引当做是数据库中的表。
数据库的表会有约束信息,用来定义表的结构、字段的名称、类型等信息。
因此,索引库中就有映射(mapping) ,是索引中文档的字段约束信息,类似表的结构约束。
mysql 与 elasticsearch
| MySQL | Elasticsearch | 说明 |
|---|---|---|
| Table | Index | 索引(index),就是文档的集合,类似数据库的表(table) |
| Row | Document | 文档(Document),就是一条条的数据,类似数据库中的行(Row) ,文档都是JSON格式 |
| Column | Field | 字段(Field),就是JSON文档中的字段,类似数据库中的列(Column) |
| Schema | Mapping | Mapping(映射)是索引中文档的约束,例如字段类型约束。 类似数据库的表结构(Schema) |
| SQL | DSL | DSL是elasticsearch提供的JSON风格的请求语句,用来操作elasticsearch,实现CRUD |
- Mysql:擅长事务类型操作,可以确保数据的安全和一致性
- Elasticsearch:擅长海量数据的搜索、分析、计算
因此在企业中,往往是两者结合使用:
- 对安全性要求较高的写操作,使用 MySQL 实现
- 对查询性能要求较高的搜索需求,使用 ELasticsearch 实现
- 两者再基于某种方式,实现数据的同步,保证一致性
12.5 安装Elasticsearch
12.5.1 部署单点es
1️⃣创建网络
因为我们还需要部署 kibana 容器,需要让 es 和 kibana 容器互联。这里先创建一个网络:
docker network create es-net
2️⃣加载镜像
这里我们采用elasticsearch的7.12.1版本的镜像,这个镜像体积非常大,接近1G。这里导入es的tar包
上传到虚拟机后执行命令加载:
docker load -i es.tar
同理还有kibana的tar包也需要这样做。
docker load -i kibana.tar
3️⃣运行
运行docker命令,部署单点es:
docker run -d \
--name es \
-e "ES_JAVA_OPTS=-Xms512m -Xmx512m" \
-e "discovery.type=single-node" \
-v es-data:/usr/share/elasticsearch/data \
-v es-plugins:/usr/share/elasticsearch/plugins \
--privileged \
--network es-net \
-p 9200:9200 \
-p 9300:9300 \
elasticsearch:7.12.1
命令解释:
-e "cluster.name=es-docker-cluster":设置集群名称-e "http.host=0.0.0.0":监听的地址,可以外网访问-e "ES_JAVA_OPTS=-Xms512m -Xmx512m":内存大小-e "discovery.type=single-node":非集群模式-v es-data:/usr/share/elasticsearch/data:挂载逻辑卷,绑定es的数据目录-v es-logs:/usr/share/elasticsearch/logs:挂载逻辑卷,绑定es的日志目录-v es-plugins:/usr/share/elasticsearch/plugins:挂载逻辑卷,绑定es的插件目录--privileged:授予逻辑卷访问权--network es-net:加入一个名为es-net的网络中-p 9200:9200:端口映射配置
在浏览器中输入:xxx.xxx.xxx.xxx:9200 即可看到elasticsearch的响应结果:
12.5.2 部署kibana
kibana可以给我们提供一个elasticsearch的可视化界面,便于我们学习。
1️⃣部署
运行docker命令,部署kibana
docker run -d \
--name kibana \
-e ELASTICSEARCH_HOSTS=http://es:9200 \
--network=es-net \
-p 5601:5601 \
kibana:7.12.1
--network es-net:加入一个名为es-net的网络中,与elasticsearch在同一个网络中-e ELASTICSEARCH_HOSTS=http://es:9200":设置elasticsearch的地址,因为kibana已经与elasticsearch在一个网络,因此可以用容器名直接访问elasticsearch-p 5601:5601:端口映射配置
kibana启动一般比较慢,需要多等待一会,可以通过命令:
docker logs -f kibana
查看运行日志,当查看到下面的日志,说明成功:
此时,在浏览器输入地址访问:xxx.xxx.xxx.xxx:5601,即可看到结果
2️⃣查看DevTools
kibana中提供了一个DevTools界面:
这个界面中可以编写DSL来操作elasticsearch。并且对DSL语句有自动补全功能
12.5.3 安装IK分词器
es在创建倒排索引时需要对文档分词;在搜索时,需要对用户输入内容分词。但默认的分词规则对中文处理并不友好
处理中文分词,一般会使用IK分词器。github.com/medcl/elast…
方式一:在线安装ik插件(较慢)
# 进入容器内部
docker exec -it elasticsearch /bin/bash
# 在线下载并安装
./bin/elasticsearch-plugin install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.12.1/elasticsearch-analysis-ik-7.12.1.zip
#退出
exit
#重启容器
docker restart elasticsearch
方式二:离线安装IK插件(推荐)
安装插件需要知道elasticsearch的plugins目录位置,而我们用了数据卷挂载,因此需要查看elasticsearch的数据卷目录,通过下面命令查看:
docker volume inspect es-plugins
把ik插件放到/var/lib/docker/volumes/es-plugins/_data目录下
(记得删除掉ik.zip的压缩包)
重启容器
# 4、重启容器
docker restart es
# 查看es日志
docker logs -f es
测试
IK分词器包含两种模式:
-
ik_smart:智能切分,粗粒度ik_max_word:最细切分,细粒度
我们在上面的 Kibana 控制台测试
GET /_analyze
{
"analyzer": "ik_max_word",
"text": "芜湖起飞啦"
}
12.6 拓展词词典
在上面的IK分词器我们可以随着热点词来扩展,可以自己添加,比如 ”钟老师应该是一个热点词“,另外你也可以配置一些停用掉的敏感词,让其不进行分词。
打开IK分词器 config 目录是
IKAnalyzer.cfg.xml,添加一个文件名,我们以ext.dic文件名为例。
我们去创建 ext.dic ,在其中添加热点词就好了,一个词一行。
重启 elasticsearch
docker restart es
重新测试
GET /_analyze
{
"analyzer": "ik_max_word",
"text": "钟老师你好菜啊"
}
12.7 索引库操作
Mapping属性映射
索引库就类似数据库表,mapping 映射就类似表的结构
我们要向 es 中存储数据,必须先创建“库”和“表”
mapping 是对索引库中文档的约束,常见的 mapping 属性包括:
-
type:字段数据类型,常见的简单类型有:
- 字符串:text(可分词的文本)、keyword(精确值,例如:品牌、国家、ip地址)
- 数值:long、integer、short、byte、double、float、
- 布尔:boolean
- 日期:date
- 对象:object
-
index:是否创建索引,默认为 true
-
analyzer:使用哪种分词器
-
properties:该字段的子字段
{
"age": 21,
"weight": 52.1,
"isMarried": false,
"info": "芜湖起飞",
"email": "180324@qq.com",
"score": [99.1, 99.5, 98.9],
"name": {
"firstName": "眼",
"lastName": "芜湖"
}
}
首先对应的每个字段映射(mapping)情况如下:
-
age:类型为 integer;参与搜索,index 为 true;无需分词器
-
weight:类型为 float;参与搜索,index 为 true;无需分词器
-
isMarried:类型为boolean;参与搜索,index 为 true;无需分词器
-
info:类型为字符串,需要分词,因此是 text;参与搜索,index为true;分词器可以用 ik_smart
-
email:类型为字符串,但是不需要分词,因此是 keyword;不参与搜索,index 为 false;无需分词器
-
score:虽然是数组,但是我们只看元素的类型,类型为 float;参与搜索,index 为 true;无需分词器
-
name:类型为 object,需要定义多个子属性
- name.firstName:类型为字符串,不需要分词,keyword;参与搜索,index 为 true;无需分词器
- name.lastName:类型为字符串,不需要分词,keyword;参与搜索,index 为 true;无需分词器
1️⃣创建索引库和映射
ES中通过Restful请求操作索引库、文档。请求内容用DSL语句来表示。
创建索引的标准DSL语法:
PUT /索引库名称
{
"mappings": {
"properties": {
"字段名":{
"type": "text",
"analyzer": "ik_smart"
},
"字段名2":{
"type": "keyword",
"index": "false"
},
"字段名3":{
"properties": {
"子字段": {
"type": "keyword"
}
}
}
// ...略
}
}
}
测试
针对上文的Json
PUT /ysl2022
{
"mappings": {
"properties": {
"info":{
"type": "text",
"analyzer": "ik_smart"
},
"email":{
"type": "keyword",
"index": "false"
},
"name":{
"properties": {
"firstName": {
"type": "keyword"
},
"lastName": {
"type": "keyword"
}
}
}
}
}
}
创建成功
2️⃣查看索引库
GET /索引库名
3️⃣修改索引库
倒排索引结构虽然不复杂,但是一旦数据结构改变(比如改变了分词器),就需要重新创建倒排索引,这简直是灾难。因此索引库一旦创建,无法修改 mapping(是禁止的)
虽然无法修改 mapping 中已有的字段,但是却允许添加新的字段到 mapping 中,不会对倒排索引产生影响。
PUT /索引库名/_mapping
{
"properties": {
"新字段名":{
"type": "integer"
}
}
}
因为,如果是同一个字段的话,es会认为是对字段进行修改,会报错的
4️⃣删除索引库
DELETE /索引库名
12.8 文档操作
其实就相当于数据库插入记录一样
新增文档
POST /索引库名/_doc/文档id
{
"字段1": "值1",
"字段2": "值2",
"字段3": {
"子属性1": "值3",
"子属性2": "值4"
},
// ...
}
若,不加id,es会自动给我们生成一个文档id,一般不推荐这样,所以一定要加上id
示例:
POST /tfbn/_doc/1
{
"info": "tfbn贼想谈恋爱",
"email": "tfbn@qq.com",
"name": {
"firstName": "听风",
"lastName": "北念"
}
}
修改文档
修改文档有两种方式:
- 全量修改:直接覆盖原来的文档(删除旧文档,添加新文档)
- 增量修改:修改文档中的部分字段(修改制定字段值)
全量修改是覆盖原来的文档,其本质是:
- 根据指定的 id 删除旧文档
- 新增一个相同 id 的新文档
注意:如果根据 id 删除时,id 不存在,第二步的新增也会执行,也就是变成了新增操作
全量修改
PUT /{索引库名}/_doc/id
{
"字段1": "值1",
"字段2": "值2",
// ... 略
}
示例:
PUT /tfbn/_doc/1
{
"info": "tfbn超级无敌帅",
"email": "tfbn183@qq.com",
"name": {
"firstName": "听风111",
"lastName": "北念111"
}
}
增量修改是只修改指定 id 匹配的文档中的部分字段
POST /{索引库名}/_update/文档id
{
"doc": {
"字段名": "新的值",
}
}
POST /tfbn/_update/1
{
"doc": {
"email": "update@qq.com"
}
}
查询文档
GET /{索引库名称}/_doc/{id}
示例:
删除文档
DELETE /{索引库名}/_doc/{id}
12.9 RestClient文档操作
12.9.1 索引库的操作
案例
利用JavaRestClient实现创建、删除索引库,判断索引库是否存在
根据课前资料提供的酒店数据创建索引库,索引库名为hotel,mapping属性根据数据库结构定义。
基本步骤如下:
- 导入课前资料Demo
- 分析数据结构,定义mapping属性
- 初始化JavaRestClient
- 利用JavaRestClient创建索引库
- 利用JavaRestClient删除索引库
- 利用JavaRestClient判断索引库是否存在
导入Demo
数据库tb_hotel表
分析数据结构,定义mapping属性
创建对应的索引库
PUT /hotel
{
"mappings": {
"properties": {
"id": {
"type": "keyword"
},
"name": {
"type": "text",
"analyzer": "ik_max_word"
},
"address": {
"type": "keyword",
"index": false
},
"price": {
"type": "integer"
},
"score": {
"type": "integer",
"copy_to": "{pic}"
},
"brand": {
"type": "keyword"
},
"city": {
"type": "keyword",
"copy_to": "{pic}"
},
"starName": {
"type": "keyword",
"copy_to": "{pic}"
},
"business": {
"type": "keyword"
},
"location": {
"type": "geo_point"
},
"pic": {
"type": "keyword",
"index": false
}
}
}
}
如果对于某个字段的搜索想搜到别的字段,可以使用copy_to:
初始化JavaRestClient
引入依赖
<!-- elasticsearch-->
<dependency>
<groupId>org.elasticsearch.client</groupId>
<artifactId>elasticsearch-rest-high-level-client</artifactId>
</dependency>
<properties>
<java.version>1.8</java.version>
<elasticsearch.version>7.12.1</elasticsearch.version>
</properties>
初始化 RestHighLevelClient,初始化的代码如下:
我们创建一个测试类 HotelIndexTest,然后将初始化的代码编写在
@BeforeEach方法
/**
* @date: 2022/6/17
* @FileName: HotelIndexTest
* @author: Yan
* @Des:
*/
@SpringBootTest
public class HotelIndexTest {
private RestHighLevelClient restHighLevelClient;
@Test
void testInit() {
System.out.println(this.restHighLevelClient);
}
@BeforeEach
void init(){
// 通过new的方式初始化客户端
this.restHighLevelClient = new RestHighLevelClient(RestClient.builder(
HttpHost.create("http://120.2.100.135:9200")
));
}
@AfterEach
void down() throws IOException {
this.restHighLevelClient.close();
}
}
测试结果
1️⃣创建索引库
示例代码
@Test
void createHotelIndex() throws IOException {
//指定索引库名
CreateIndexRequest hotel = new CreateIndexRequest("hotel");
//写入JSON数据,这里是Mapping映射
hotel.source(HotelConstants.MAPPING_TEMPLATE, XContentType.JSON);
//创建索引库
restHighLevelClient.indices().create(hotel, RequestOptions.DEFAULT);
}
静态常量字符串MAPPING_TEMPLATE:
public class HotelConstants {
public static String MAPPING_TEMPLATE = "{\n" +
" \"mappings\": {\n" +
" \"properties\": {\n" +
" \"id\": {\n" +
" \"type\": \"keyword\"\n" +
" },\n" +
" \"name\":{\n" +
" \"type\": \"text\",\n" +
" \"analyzer\": \"ik_max_word\",\n" +
" \"copy_to\": \"all\"\n" +
" },\n" +
" \"address\":{\n" +
" \"type\": \"keyword\",\n" +
" \"index\": false\n" +
" },\n" +
" \"price\":{\n" +
" \"type\": \"integer\"\n" +
" },\n" +
" \"score\":{\n" +
" \"type\": \"integer\"\n" +
" },\n" +
" \"brand\":{\n" +
" \"type\": \"keyword\",\n" +
" \"copy_to\": \"all\"\n" +
" },\n" +
" \"city\":{\n" +
" \"type\": \"keyword\",\n" +
" \"copy_to\": \"all\"\n" +
" },\n" +
" \"starName\":{\n" +
" \"type\": \"keyword\"\n" +
" },\n" +
" \"business\":{\n" +
" \"type\": \"keyword\"\n" +
" },\n" +
" \"location\":{\n" +
" \"type\": \"geo_point\"\n" +
" },\n" +
" \"pic\":{\n" +
" \"type\": \"keyword\",\n" +
" \"index\": false\n" +
" },\n" +
" \"all\":{\n" +
" \"type\": \"text\",\n" +
" \"analyzer\": \"ik_max_word\"\n" +
" }\n" +
" }\n" +
" }\n" +
"}";
}
创建成功后,查看运行结果:
2️⃣删除索引库
删除索引库
@Test
void deleteHotelIndex() throws IOException {
DeleteIndexRequest hotel = new DeleteIndexRequest("hotel");
restHighLevelClient.indices().delete(hotel,RequestOptions.DEFAULT);
}
3️⃣判断索引库是否存在
@Test
void existHotelIndex() throws IOException {
GetIndexRequest hotel = new GetIndexRequest("hotel");
boolean exists = restHighLevelClient.indices().exists(hotel, RequestOptions.DEFAULT);
System.out.println(exists);
}
12.9.2 文档的操作
案例
利用JavaRestClient实现文档的CRUD
去数据库查询酒店数据,导入到hotel索引库,实现酒店数据的CRUD。
基本步骤如下:
- 初始化JavaRestClient
- 利用JavaRestClient新增酒店数据
- 利用JavaRestClient根据id查询酒店数据
- 利用JavaRestClient删除酒店数据
- 利用JavaRestClient修改酒店数据
1️⃣新增文档
添加数据到索引库
@Test
void createHotelIndex() throws IOException {
// 根据id查询数据库中的酒店信息,得到hotel对象
Hotel hotel = hotelService.getById(61083L);
// new一个跟索引库结构一致的实体类,并把hotel对象转换成与索引库一致的对象
HotelDoc hotelDoc = new HotelDoc(hotel);
// 1.准备Request对象
IndexRequest hotelIndex = new IndexRequest("hotel").id(hotelDoc.getId().toString());
// 2.准备Json文档 , 把文档对象序列化成JSON格式
hotelIndex.source(JSON.toJSONString(hotelDoc), XContentType.JSON);
// 3.发送请求
restHighLevelClient.index(hotelIndex, RequestOptions.DEFAULT);
}
测试结果,去devtools中获取索引库的文档
2️⃣查询文档
@Test
void testGetDocumentById() throws IOException {
// 1.准备Request
GetRequest hotel = new GetRequest("hotel", "61083");
// 2.发送请求,得到响应
GetResponse hotelResponse = restHighLevelClient.get(hotel, RequestOptions.DEFAULT);
// 3.解析响应结果
String hotelDocSourceAsString = hotelResponse.getSourceAsString();
// 4.json转实体类 转换成hotelDoc对象
HotelDoc hotelDoc = JSON.parseObject(hotelDocSourceAsString, HotelDoc.class);
System.out.println(hotelDoc);
}
3️⃣删除文档
@Test
void testDeleteDocumentById() throws IOException {
DeleteRequest hotel = new DeleteRequest("hotel", "61083");
restHighLevelClient.delete(hotel,RequestOptions.DEFAULT);
}
4️⃣修改文档
前面我们说过,修改文档有两种方式:
- 全量修改:直接覆盖原来的文档
- 增量修改:修改文档中的部分字段
在 RestClient 的 API 中,全量修改与新增的 API 完全一致,判断依据是 ID
- 如果新增时,ID已经存在,则修改
- 如果新增时,ID不存在,则新增
所以全量修改写法与新增文档一样,下面我们主要是介绍增量修改:
5️⃣批量导入文档
案例需求:利用 BulkRequest 批量将数据库数据导入到索引库中。
- 利用 mybatis-plus 查询酒店数据
- 将查询到的酒店数据(Hotel)转换为文档类型数据(HotelDoc)
- 利用 JavaRestClient 中的 BulkRequest 批处理,实现批量新增文档
批量处理 BulkRequest,其本质就是将多个普通的 CRUD 请求组合在一起发送。
因此Bulk中添加了多个IndexRequest,就是批量新增功能了。
@Test
void testBulk() throws IOException {
// 创建bulk请求
BulkRequest bulkRequest = new BulkRequest();
// 获取数据库的hotelList集合
List<Hotel> hotelList = hotelService.list();
hotelList.forEach(item -> {
// 逐个转换成hotelDoc对象
HotelDoc hotelDoc = new HotelDoc(item);
// 添加多个新增的Request
bulkRequest.add(new IndexRequest("hotel")
.id(hotelDoc.getId().toString())
.source(JSON.toJSONString(hotelDoc), XContentType.JSON));
});
restHighLevelClient.bulk(bulkRequest, RequestOptions.DEFAULT);
}
结果:
总结
- 总之,在 Java 代码中,client 针对操作索引库还是文档,基本都是一样的代码
- restHighLevelClient.indices().xxx,代表操作索引库
- restHighLevelClient.xxx,代表操作文档
- 而其中所需要的参数,我们直接通过 ctrl+p 这样的快捷键去查看就可以,不需要单独记住。