微服务学习Day5

183 阅读15分钟

持续创作,加速成长!这是我参与「掘金日新计划 · 6 月更文挑战」的第16天,点击查看活动详情

12. ELasticsearch搜索引擎(上)

12.1 什么是ELasticsearch

img

ELasticsearch 是一款非常强大的开源搜索引擎,具备非常多强大功能,可以帮助我们从海量数据中快速找到需要的内容,可以用来实现搜索、日志统计、分析、系统监控等功能。

12.2 倒排索引

首先,倒排索引的概念是基于 MySQL 这样的正向索引而言的。

如果是根据 id 查询,那么直接走索引,查询速度非常快。

但如果是基于 title 做模糊查询,只能是逐行扫描数据,流程如下:

  1. 用户搜索数据,条件是 title 符合 "%手机%"
  2. 逐行获取数据,比如 id 为 1 的数据
  3. 判断数据中的 title 是否符合用户搜索条件
  4. 如果符合则放入结果集,不符合则丢弃。然后回到步骤1

逐行扫描,也就是全表扫描,随着数据量增加,其查询效率也会越来越低。

倒排索引中有两个非常重要的概念:

  • 文档(Document):用来搜索的数据,其中的每一条数据就是一个文档。例如一个网页、一个商品信息
  • 词条(Term):对文档数据或用户搜索数据,利用某种算法分词,得到的具备含义的词语就是词条。例如:我是中国人,就可以分为:我、是、中国人、中国、国人这样的几个词条

创建倒排索引是对正向索引的一种特殊处理,流程如下:

  1. 将每一个文档的数据利用算法分词,得到一个个词条
  2. 创建表,每行数据包括词条、词条所在文档 id、位置等信息
  3. 因为词条唯一性,可以给词条创建索引,例如 hash 表结构索引

img

倒排索引中包含两部分内容:

  • 词条词典(Term Dictionary): 记录所有词条,以及词条与倒排列表(Posting List)之间的关系,会给词条创建索引,提高查询和插入效率

  • 倒排列表(Posting List): 记录词条所在的文档id、词条出现频率、词条在文档中的位置等信息

    • 文档id:用于快速获取文档
    • 词条频率(TF):文档在词条出现的次数,用于评分

image-20220616144754142

倒排索引的搜索流程如下(以搜索"华为手机"为例):

  1. 用户输入条件"华为手机"进行搜索
  2. 对用户输入内容分词,得到词条:华为手机
  3. 拿着词条在倒排索引中查找,可以得到包含词条的文档 id 有 1、2、3
  4. 拿着文档 id 到正向索引中查找具体文档

img

虽然要先查询倒排索引,再查询正向索引,但是词条和文档id 都建立了索引,查询速度非常快!无需全表扫描。

为什么一个叫做正向索引,一个叫做倒排索引呢?

正向索引是最传统的,根据 id 索引的方式。但根据词条查询时,必须先逐条获取每个文档,然后判断文档中是否包含所需要的词条,是根据文档找词条的过程

倒排索引则相反,是先找到用户要搜索的词条,根据得到的文档 id 获取该文档。是根据词条找文档的过程

12.3 文档和字段

elasticsearch是面向文档存储的,可以是数据库中的一条商品数据,一个订单信息。文档数据会被序列化为json格式后存储在elasticsearch中。

而 JSON 文档中往往包含很多的字段(Field) ,类似于数据库中的列。

12.4 索引和映射

索引(Index) ,就是相同类型的文档的集合。

例如:

  • 所有用户文档,就可以组织在一起,称为用户的索引;
  • 所有商品的文档,可以组织在一起,称为商品的索引;
  • 所有订单的文档,可以组织在一起,称为订单的索引;

因此,我们可以把索引当做是数据库中的表。

数据库的表会有约束信息,用来定义表的结构、字段的名称、类型等信息。

因此,索引库中就有映射(mapping) ,是索引中文档的字段约束信息,类似表的结构约束。

mysql 与 elasticsearch

MySQLElasticsearch说明
TableIndex索引(index),就是文档的集合,类似数据库的表(table)
RowDocument文档(Document),就是一条条的数据,类似数据库中的行(Row) ,文档都是JSON格式
ColumnField字段(Field),就是JSON文档中的字段,类似数据库中的列(Column)
SchemaMappingMapping(映射)是索引中文档的约束,例如字段类型约束。 类似数据库的表结构(Schema)
SQLDSLDSL是elasticsearch提供的JSON风格的请求语句,用来操作elasticsearch,实现CRUD
  • Mysql:擅长事务类型操作,可以确保数据的安全和一致性
  • Elasticsearch:擅长海量数据的搜索、分析、计算

因此在企业中,往往是两者结合使用:

  • 对安全性要求较高的写操作,使用 MySQL 实现
  • 对查询性能要求较高的搜索需求,使用 ELasticsearch 实现
  • 两者再基于某种方式,实现数据的同步,保证一致性

12.5 安装Elasticsearch

12.5.1 部署单点es

1️⃣创建网络

因为我们还需要部署 kibana 容器,需要让 es 和 kibana 容器互联。这里先创建一个网络:

docker network create es-net 

2️⃣加载镜像

这里我们采用elasticsearch的7.12.1版本的镜像,这个镜像体积非常大,接近1G。这里导入es的tar包

image-20220616165649907

上传到虚拟机后执行命令加载:

docker load -i es.tar

同理还有kibana的tar包也需要这样做。

docker load -i kibana.tar

3️⃣运行

运行docker命令,部署单点es:

docker run -d \
    --name es \
    -e "ES_JAVA_OPTS=-Xms512m -Xmx512m" \
    -e "discovery.type=single-node" \
    -v es-data:/usr/share/elasticsearch/data \
    -v es-plugins:/usr/share/elasticsearch/plugins \
    --privileged \
    --network es-net \
    -p 9200:9200 \
    -p 9300:9300 \
elasticsearch:7.12.1

命令解释:

  • -e "cluster.name=es-docker-cluster":设置集群名称
  • -e "http.host=0.0.0.0":监听的地址,可以外网访问
  • -e "ES_JAVA_OPTS=-Xms512m -Xmx512m":内存大小
  • -e "discovery.type=single-node":非集群模式
  • -v es-data:/usr/share/elasticsearch/data:挂载逻辑卷,绑定es的数据目录
  • -v es-logs:/usr/share/elasticsearch/logs:挂载逻辑卷,绑定es的日志目录
  • -v es-plugins:/usr/share/elasticsearch/plugins:挂载逻辑卷,绑定es的插件目录
  • --privileged:授予逻辑卷访问权
  • --network es-net :加入一个名为es-net的网络中
  • -p 9200:9200:端口映射配置

在浏览器中输入:xxx.xxx.xxx.xxx:9200 即可看到elasticsearch的响应结果:

image-20220616170934932

12.5.2 部署kibana

kibana可以给我们提供一个elasticsearch的可视化界面,便于我们学习。

1️⃣部署

运行docker命令,部署kibana

docker run -d \
--name kibana \
-e ELASTICSEARCH_HOSTS=http://es:9200 \
--network=es-net \
-p 5601:5601  \
kibana:7.12.1
  • --network es-net :加入一个名为es-net的网络中,与elasticsearch在同一个网络中
  • -e ELASTICSEARCH_HOSTS=http://es:9200":设置elasticsearch的地址,因为kibana已经与elasticsearch在一个网络,因此可以用容器名直接访问elasticsearch
  • -p 5601:5601:端口映射配置

kibana启动一般比较慢,需要多等待一会,可以通过命令:

docker logs -f kibana

查看运行日志,当查看到下面的日志,说明成功:

image-20220616174615051

此时,在浏览器输入地址访问:xxx.xxx.xxx.xxx:5601,即可看到结果

image-20220616174604218

2️⃣查看DevTools

kibana中提供了一个DevTools界面:

这个界面中可以编写DSL来操作elasticsearch。并且对DSL语句有自动补全功能

12.5.3 安装IK分词器

es在创建倒排索引时需要对文档分词;在搜索时,需要对用户输入内容分词。但默认的分词规则对中文处理并不友好

处理中文分词,一般会使用IK分词器。github.com/medcl/elast…

方式一:在线安装ik插件(较慢)

# 进入容器内部
docker exec -it elasticsearch /bin/bash
​
# 在线下载并安装
./bin/elasticsearch-plugin  install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.12.1/elasticsearch-analysis-ik-7.12.1.zip
​
#退出
exit
#重启容器
docker restart elasticsearch

方式二:离线安装IK插件(推荐)

安装插件需要知道elasticsearch的plugins目录位置,而我们用了数据卷挂载,因此需要查看elasticsearch的数据卷目录,通过下面命令查看:

docker volume inspect es-plugins

把ik插件放到/var/lib/docker/volumes/es-plugins/_data目录下

(记得删除掉ik.zip的压缩包)

重启容器

# 4、重启容器
docker restart es
# 查看es日志
docker logs -f es

测试

IK分词器包含两种模式:

  • ik_smart:智能切分,粗粒度

    ik_max_word:最细切分,细粒度

我们在上面的 Kibana 控制台测试

GET /_analyze
{
  "analyzer": "ik_max_word",
  "text": "芜湖起飞啦"
}

12.6 拓展词词典

在上面的IK分词器我们可以随着热点词来扩展,可以自己添加,比如 ”钟老师应该是一个热点词“,另外你也可以配置一些停用掉的敏感词,让其不进行分词。

打开IK分词器 config 目录是 IKAnalyzer.cfg.xml,添加一个文件名,我们以 ext.dic 文件名为例。

img

我们去创建 ext.dic ,在其中添加热点词就好了,一个词一行。

img

重启 elasticsearch

docker restart es

重新测试

GET /_analyze
{
  "analyzer": "ik_max_word",
  "text": "钟老师你好菜啊"
}

img

12.7 索引库操作

Mapping属性映射

索引库就类似数据库表,mapping 映射就类似表的结构

我们要向 es 中存储数据,必须先创建“库”和“表”

mapping 是对索引库中文档的约束,常见的 mapping 属性包括:

  • type:字段数据类型,常见的简单类型有:

    • 字符串:text(可分词的文本)、keyword(精确值,例如:品牌、国家、ip地址)
    • 数值:long、integer、short、byte、double、float、
    • 布尔:boolean
    • 日期:date
    • 对象:object
  • index:是否创建索引,默认为 true

  • analyzer:使用哪种分词器

  • properties:该字段的子字段

{
    "age": 21,
    "weight": 52.1,
    "isMarried": false,
    "info": "芜湖起飞",
    "email": "180324@qq.com",
    "score": [99.1, 99.5, 98.9],
    "name": {
        "firstName": "眼",
        "lastName": "芜湖"
    }
}

首先对应的每个字段映射(mapping)情况如下:

  • age:类型为 integer;参与搜索,index 为 true;无需分词器

  • weight:类型为 float;参与搜索,index 为 true;无需分词器

  • isMarried:类型为boolean;参与搜索,index 为 true;无需分词器

  • info:类型为字符串,需要分词,因此是 text;参与搜索,index为true;分词器可以用 ik_smart

  • email:类型为字符串,但是不需要分词,因此是 keyword;不参与搜索,index 为 false;无需分词器

  • score:虽然是数组,但是我们只看元素的类型,类型为 float;参与搜索,index 为 true;无需分词器

  • name:类型为 object,需要定义多个子属性

    • name.firstName:类型为字符串,不需要分词,keyword;参与搜索,index 为 true;无需分词器
    • name.lastName:类型为字符串,不需要分词,keyword;参与搜索,index 为 true;无需分词器

1️⃣创建索引库和映射

ES中通过Restful请求操作索引库、文档。请求内容用DSL语句来表示。

创建索引的标准DSL语法:

PUT /索引库名称
{
  "mappings": {
    "properties": {
      "字段名":{
        "type": "text",
        "analyzer": "ik_smart"
      },
      "字段名2":{
        "type": "keyword",
        "index": "false"
      },
      "字段名3":{
        "properties": {
          "子字段": {
            "type": "keyword"
          }
        }
      }
      // ...略
    }
  }
}

测试

针对上文的Json

image-20220616202623538

PUT /ysl2022
{
  "mappings": {
    "properties": {
      "info":{
        "type": "text",
        "analyzer": "ik_smart"
      },
      "email":{
        "type": "keyword",
        "index": "false"
      },
      "name":{
        "properties": {
          "firstName": {
            "type": "keyword"
          },
          "lastName": {
            "type": "keyword"
          }
        }
      }
    }
  }
}

创建成功

image-20220616202734050

2️⃣查看索引库

GET /索引库名

3️⃣修改索引库

倒排索引结构虽然不复杂,但是一旦数据结构改变(比如改变了分词器),就需要重新创建倒排索引,这简直是灾难。因此索引库一旦创建,无法修改 mapping(是禁止的)

虽然无法修改 mapping 中已有的字段,但是却允许添加新的字段到 mapping 中,不会对倒排索引产生影响。

PUT /索引库名/_mapping
{
  "properties": {
    "新字段名":{
      "type""integer"
    }
  }
}

因为,如果是同一个字段的话,es会认为是对字段进行修改,会报错的

4️⃣删除索引库

DELETE /索引库名

12.8 文档操作

其实就相当于数据库插入记录一样

新增文档

POST /索引库名/_doc/文档id
{
    "字段1""值1",
    "字段2""值2",
    "字段3": {
        "子属性1""值3",
        "子属性2""值4"
    },
    // ...
}

若,不加id,es会自动给我们生成一个文档id,一般不推荐这样,所以一定要加上id

示例:

POST /tfbn/_doc/1
{
  "info": "tfbn贼想谈恋爱",
  "email": "tfbn@qq.com",
  "name": {
    "firstName": "听风",
    "lastName": "北念"
    
  }
}

image-20220616205901331

修改文档

修改文档有两种方式:

  • 全量修改:直接覆盖原来的文档(删除旧文档,添加新文档)
  • 增量修改:修改文档中的部分字段(修改制定字段值)

全量修改是覆盖原来的文档,其本质是:

  • 根据指定的 id 删除旧文档
  • 新增一个相同 id 的新文档

注意:如果根据 id 删除时,id 不存在,第二步的新增也会执行,也就是变成了新增操作

全量修改

PUT /{索引库名}/_doc/id
{
    "字段1": "值1",
    "字段2": "值2",
    // ... 略
}

示例:

PUT /tfbn/_doc/1
{
  "info": "tfbn超级无敌帅",
  "email": "tfbn183@qq.com",
  "name": {
    "firstName": "听风111",
    "lastName": "北念111"
    
  }
}

image-20220616210721879

增量修改是只修改指定 id 匹配的文档中的部分字段

POST /{索引库名}/_update/文档id
{
    "doc": {
         "字段名": "新的值",
    }
}
POST /tfbn/_update/1
{
  "doc": {
    "email": "update@qq.com"
  }
}

查询文档

GET /{索引库名称}/_doc/{id}

示例:

image-20220616210031785

删除文档

DELETE /{索引库名}/_doc/{id}

12.9 RestClient文档操作

12.9.1 索引库的操作

案例

利用JavaRestClient实现创建、删除索引库,判断索引库是否存在

根据课前资料提供的酒店数据创建索引库,索引库名为hotel,mapping属性根据数据库结构定义。

基本步骤如下:

  1. 导入课前资料Demo
  2. 分析数据结构,定义mapping属性
  3. 初始化JavaRestClient
  4. 利用JavaRestClient创建索引库
  5. 利用JavaRestClient删除索引库
  6. 利用JavaRestClient判断索引库是否存在

导入Demo

image-20220617001719575

数据库tb_hotel表

image-20220617001902383

分析数据结构,定义mapping属性

image-20220617003916477

创建对应的索引库

PUT /hotel
{
  "mappings": {
    "properties": {
      "id": {
        "type": "keyword"
      },
      "name": {
        "type": "text",
        "analyzer": "ik_max_word"
      },
      "address": {
        "type": "keyword",
        "index": false
      },
      "price": {
        "type": "integer"
      },
      "score": {
        "type": "integer",
        "copy_to": "{pic}"
      },
      "brand": {
        "type": "keyword"
      },
      "city": {
        "type": "keyword",
        "copy_to": "{pic}"
      },
      "starName": {
        "type": "keyword",
        "copy_to": "{pic}"
      },
      "business": {
        "type": "keyword"
      },
      "location": {
        "type": "geo_point"
      },
      "pic": {
        "type": "keyword",
        "index": false
      }
    }
  }
}

如果对于某个字段的搜索想搜到别的字段,可以使用copy_to:

image-20220617011130957

初始化JavaRestClient

引入依赖

<!-- elasticsearch-->
<dependency>
	<groupId>org.elasticsearch.client</groupId>
	<artifactId>elasticsearch-rest-high-level-client</artifactId>
</dependency>
<properties>
    <java.version>1.8</java.version>
    <elasticsearch.version>7.12.1</elasticsearch.version>
</properties>

初始化 RestHighLevelClient,初始化的代码如下:

我们创建一个测试类 HotelIndexTest,然后将初始化的代码编写在 @BeforeEach 方法

/**
 * @date: 2022/6/17
 * @FileName: HotelIndexTest
 * @author: Yan
 * @Des:
 */
@SpringBootTest
public class HotelIndexTest {
    private RestHighLevelClient restHighLevelClient;
    @Test
    void testInit() {
        System.out.println(this.restHighLevelClient);
    }

    @BeforeEach
    void init(){
        // 通过new的方式初始化客户端
        this.restHighLevelClient = new RestHighLevelClient(RestClient.builder(
                HttpHost.create("http://120.2.100.135:9200")
        ));
    }

    @AfterEach
    void down() throws IOException {
        this.restHighLevelClient.close();
    }
}

测试结果

image-20220617094850154

1️⃣创建索引库

image-20220617101130715

示例代码

    @Test
    void createHotelIndex() throws IOException {
        //指定索引库名
        CreateIndexRequest hotel = new CreateIndexRequest("hotel");
        //写入JSON数据,这里是Mapping映射
        hotel.source(HotelConstants.MAPPING_TEMPLATE, XContentType.JSON);
        //创建索引库
        restHighLevelClient.indices().create(hotel, RequestOptions.DEFAULT);
    }

静态常量字符串MAPPING_TEMPLATE:

public class HotelConstants {
    public static String MAPPING_TEMPLATE = "{\n" +
            "  \"mappings\": {\n" +
            "    \"properties\": {\n" +
            "      \"id\": {\n" +
            "        \"type\": \"keyword\"\n" +
            "      },\n" +
            "      \"name\":{\n" +
            "        \"type\": \"text\",\n" +
            "        \"analyzer\": \"ik_max_word\",\n" +
            "        \"copy_to\": \"all\"\n" +
            "      },\n" +
            "      \"address\":{\n" +
            "        \"type\": \"keyword\",\n" +
            "        \"index\": false\n" +
            "      },\n" +
            "      \"price\":{\n" +
            "        \"type\": \"integer\"\n" +
            "      },\n" +
            "      \"score\":{\n" +
            "        \"type\": \"integer\"\n" +
            "      },\n" +
            "      \"brand\":{\n" +
            "        \"type\": \"keyword\",\n" +
            "        \"copy_to\": \"all\"\n" +
            "      },\n" +
            "      \"city\":{\n" +
            "        \"type\": \"keyword\",\n" +
            "        \"copy_to\": \"all\"\n" +
            "      },\n" +
            "      \"starName\":{\n" +
            "        \"type\": \"keyword\"\n" +
            "      },\n" +
            "      \"business\":{\n" +
            "        \"type\": \"keyword\"\n" +
            "      },\n" +
            "      \"location\":{\n" +
            "        \"type\": \"geo_point\"\n" +
            "      },\n" +
            "      \"pic\":{\n" +
            "        \"type\": \"keyword\",\n" +
            "        \"index\": false\n" +
            "      },\n" +
            "      \"all\":{\n" +
            "        \"type\": \"text\",\n" +
            "        \"analyzer\": \"ik_max_word\"\n" +
            "      }\n" +
            "    }\n" +
            "  }\n" +
            "}";
}

创建成功后,查看运行结果:

image-20220617102951872

2️⃣删除索引库

删除索引库

    @Test
    void deleteHotelIndex() throws IOException {
        DeleteIndexRequest hotel = new DeleteIndexRequest("hotel");
        restHighLevelClient.indices().delete(hotel,RequestOptions.DEFAULT);
    }

3️⃣判断索引库是否存在

@Test
void existHotelIndex() throws IOException {
    GetIndexRequest hotel = new GetIndexRequest("hotel");
    boolean exists = restHighLevelClient.indices().exists(hotel, RequestOptions.DEFAULT);
    System.out.println(exists);
}

12.9.2 文档的操作

案例

利用JavaRestClient实现文档的CRUD

去数据库查询酒店数据,导入到hotel索引库,实现酒店数据的CRUD。

基本步骤如下:

  1. 初始化JavaRestClient
  2. 利用JavaRestClient新增酒店数据
  3. 利用JavaRestClient根据id查询酒店数据
  4. 利用JavaRestClient删除酒店数据
  5. 利用JavaRestClient修改酒店数据

1️⃣新增文档

添加数据到索引库

image-20220617105353866

    @Test
    void createHotelIndex() throws IOException {
        // 根据id查询数据库中的酒店信息,得到hotel对象
        Hotel hotel = hotelService.getById(61083L);
        // new一个跟索引库结构一致的实体类,并把hotel对象转换成与索引库一致的对象
        HotelDoc hotelDoc = new HotelDoc(hotel);
        // 1.准备Request对象
        IndexRequest hotelIndex = new IndexRequest("hotel").id(hotelDoc.getId().toString());
        // 2.准备Json文档 , 把文档对象序列化成JSON格式
        hotelIndex.source(JSON.toJSONString(hotelDoc), XContentType.JSON);
        // 3.发送请求
        restHighLevelClient.index(hotelIndex, RequestOptions.DEFAULT);
    }

测试结果,去devtools中获取索引库的文档

image-20220617113209715

2️⃣查询文档

image-20220617124015324

    @Test
    void testGetDocumentById() throws IOException {
        // 1.准备Request
        GetRequest hotel = new GetRequest("hotel", "61083");
        // 2.发送请求,得到响应
        GetResponse hotelResponse = restHighLevelClient.get(hotel, RequestOptions.DEFAULT);
        // 3.解析响应结果
        String hotelDocSourceAsString = hotelResponse.getSourceAsString();
        // 4.json转实体类 转换成hotelDoc对象
        HotelDoc hotelDoc = JSON.parseObject(hotelDocSourceAsString, HotelDoc.class);
        System.out.println(hotelDoc);
    }

image-20220617124917477

3️⃣删除文档

    @Test
    void testDeleteDocumentById() throws IOException {
        DeleteRequest hotel = new DeleteRequest("hotel", "61083");
        restHighLevelClient.delete(hotel,RequestOptions.DEFAULT);
    }

4️⃣修改文档

前面我们说过,修改文档有两种方式:

  • 全量修改:直接覆盖原来的文档
  • 增量修改:修改文档中的部分字段

在 RestClient 的 API 中,全量修改与新增的 API 完全一致,判断依据是 ID

  • 如果新增时,ID已经存在,则修改
  • 如果新增时,ID不存在,则新增

所以全量修改写法与新增文档一样,下面我们主要是介绍增量修改:

image-20220617124059715

5️⃣批量导入文档

案例需求:利用 BulkRequest 批量将数据库数据导入到索引库中。

  • 利用 mybatis-plus 查询酒店数据
  • 将查询到的酒店数据(Hotel)转换为文档类型数据(HotelDoc)
  • 利用 JavaRestClient 中的 BulkRequest 批处理,实现批量新增文档

批量处理 BulkRequest,其本质就是将多个普通的 CRUD 请求组合在一起发送。

因此Bulk中添加了多个IndexRequest,就是批量新增功能了。

    @Test
    void testBulk() throws IOException {
        // 创建bulk请求
        BulkRequest bulkRequest = new BulkRequest();
        // 获取数据库的hotelList集合
        List<Hotel> hotelList = hotelService.list();

        hotelList.forEach(item -> {
            // 逐个转换成hotelDoc对象
            HotelDoc hotelDoc = new HotelDoc(item);
            // 添加多个新增的Request
            bulkRequest.add(new IndexRequest("hotel")
                    .id(hotelDoc.getId().toString())
                    .source(JSON.toJSONString(hotelDoc), XContentType.JSON));
        });
        
        restHighLevelClient.bulk(bulkRequest, RequestOptions.DEFAULT);
    }

结果:

image-20220617142831631

总结

  • 总之,在 Java 代码中,client 针对操作索引库还是文档,基本都是一样的代码
  • restHighLevelClient.indices().xxx,代表操作索引库
  • restHighLevelClient.xxx,代表操作文档
  • 而其中所需要的参数,我们直接通过 ctrl+p 这样的快捷键去查看就可以,不需要单独记住。