第一章ElasticSearch简介
1.1什么是ElasticSearch
Elaticsearch ,简称为es,es是一个开源的高扩展的分布式全文检索引擎,它可以近乎实时的存储、检索数据;本身扩展性很好,可以扩展到上百台服务器,处理PB级别的数据。es也使用Java开发并使用Lucene作为其核心来实现所有索引和搜索的功能,但是它的目的是通过简单的RESTful API来隐藏Lucene的复杂性,从而让全文搜索变得简单。
1.2 ElasticSearch对比Solr
- Solr 利用Zookeeper进行分布式管理,而Elasticsearch自身带有分布式协调管理功能:
- Solr 支持更多格式的数据,而Elasticsearch仅支持json文件格式;
- Solr 官方提供的功能更多,而Elasticsearch 本身更注重于核心功能,高级功能多有第三方插件提供;
- Solr 在传统的搜索应用中表现好于Elasticsearch ,但在处理实时搜索应用时效率明显低于Elasticsearch
第二章ElasticSearch安装与启动
2.1Windows安装
2.1.1下载ES压缩包
ElasticSearch的官方地址: https//www.elastic.co/products/el…
2.1.2 启动与测试
2.2Linux普通安装
下载地址:www.elastic.co/cn/download…
# jdk1.8最低要求!elasticsearch支持客户端,界面工具!
# Java开发,elasticsearch的版本和我们之后对应的Java的核心包!版本对应!JDK环境正常
# 1、下载elasticsearch-7.8.0-linux-x86_64.tar.gz,然后解压到指定文件,就可以使用了!
# 2、熟悉elasticsearch目录
- bin # 启动文件
- config # 配置文件
log4j2 # 日志配置文件
jvm.options # JVM相关配置 如过内存小 修改一下JVM的配置
elasticsearch.yml # ElasticSearch配置文件 默认9200端口
- lib # 相关jar
- modules # 功能模块
- plugins # 插件
- logs # 日志
# 3、启动elasticsearch之前的准备工作
# 由于elasticsearch-7.X不能以Root启动elasticsearch,所以需要创建用户
adduser Tangs # 添加用户
passwd Tangs # 设置密码
chown -R Tangs /opt/elasticsearch/elasticsearch-7.8.0/ # Root个用户权限!
# 4、以新的用户到bin目录启动elasticsearch脚本
[Tangs@Ringo bin]$ ./elasticsearch
# 5、测试连接
[root@Ringo elasticsearch-7.8.0]# curl localhost:9200
{
"name" : "Ringo",
"cluster_name" : "elasticsearch",
"cluster_uuid" : "IS5Y80WYRJOj4AHmIQ32Fw",
"version" : {
"number" : "7.8.0",
"build_flavor" : "default",
"build_type" : "tar",
"build_hash" : "757314695644ea9a1dc2fecd26d1a43856725e65",
"build_date" : "2020-06-14T19:35:50.234439Z",
"build_snapshot" : false,
"lucene_version" : "8.5.1",
"minimum_wire_compatibility_version" : "6.8.0",
"minimum_index_compatibility_version" : "6.0.0-beta1"
},
"tagline" : "You Know, for Search"
}
2.3Docker安装
# 1、需要将elasticsearch的config文件夹拷贝到挂载目录下
# 2、修改elasticsearch.yml 文件
network.host: 0.0.0.0
http.port: 9200
# 3、启动并运行
docker run -e "ES_JAVA_OPTS=-Xms256m -Xmx256m" \
--name elasticsearch -p 9200:9200 -p 9300:9300 \
-e "discovery.type=single-node" \
-v /root/elasticsearch/config:/usr/share/elasticsearch/config \
-d elasticsearch:7.8.0
# 4、测试连接
[root@Ringo config]# curl localhost:9200
{
"name" : "78f3957f5cb9",
"cluster_name" : "elasticsearch",
"cluster_uuid" : "-IsEt9kXQxKemftK6b8RaA",
"version" : {
"number" : "7.8.0",
"build_flavor" : "default",
"build_type" : "docker",
"build_hash" : "757314695644ea9a1dc2fecd26d1a43856725e65",
"build_date" : "2020-06-14T19:35:50.234439Z",
"build_snapshot" : false,
"lucene_version" : "8.5.1",
"minimum_wire_compatibility_version" : "6.8.0",
"minimum_index_compatibility_version" : "6.0.0-beta1"
},
"tagline" : "You Know, for Search"
}
2.4安装elasticsearch-head
# 1、安装node.js
# 2、安装grunt
npm install -g grunt-cli
# 查看grunt是否安装成功
grunt -version
# 3、克隆elasticsearch-head项目
# 4、到elasticsearch-head目录下安装依赖
npm install
# 5、运行elasticsearch-head
npm run start
# 6、开启elasticsearch服务端的跨域支持,进入elasticsearch.yml
# 在文件末尾添加如下配置
http.cors.enabled: true
http.cors.allow-origin: "*"
node.master: true
node.data: true
# 取消以下两行的注释
cluster.name: my-application
node.name: node-1
# 7、测试连接
http://localhost:9100/
2.5安装kibana
下载地址:www.elastic.co/cn/download…
Kibana的版本要和elasticsearch版本对应!
Docker安装
# 1、拉取kibana镜像
docker pull kibana:7.8.0
# 2、修改kibana.yml
server.port: 5601
server.name: "kibana"
server.host: "0.0.0.0"
elasticsearch.hosts: ["http://172.18.0.5:9200"]
# 3、运行kibana
docker run --name kibana --privileged=true -p 5601:5601 \
-v /root/kibana/config:/usr/share/kibana/config \
-d kibana:7.8.0
# 4、测试连接
http://39.97.3.60:5601
# 5、kibana汉化 打开kibana.yml
i18n.locale: "zh-CN" # 重启docker容器这样就可以将kibana汉化了!
第三章ElasticSearch相关概念(术语)
3.1概述
Elasticsearch是面向文档(document oriented)的,这意味着它可以存储整个对象或文档(document)。然而它不仅仅是存储,还会索引(index)每个文档的内容使之可以被搜索。在Elasticsearch中 ,你可以对文档(而非成行成列的数据)进行索引、搜索、排序、过滤。Elasticsearch比传统关系型数据库如下 : Relational DB -> Databases > Tables > Rows -> Columns Elasticsearch -> Indices -> Types -> Documents -> Fields
3.2 Elasticsearch核心概念
3.2.1索引index
索引就类比数据库!
索引是映射类型的容器,elasticsearch中的索引是一个非常大的文档集合。索引存储了映射类型的字段和其他设置。然后它们被存储到了各个分片上。我们来研究下分片是如何工作的。
物理设计:节点和分片 如何工作
一个集群至少有一个节点,而一个节点就是一个elasticsearch进程,节点可以有多个索引,如果创建索引,那么索引将会有5个分片(primary shard,又称主分片)构成,每一个主分片会有一个副本(replica shard,又称复制分片)。
上图是一个有3个节点的集群,可以直接看到主分片[P]和对应的复制分片[R]都不会在同一个节点内,这样有利于某个节点挂掉了,数据也不会丢失。实际上,一个分片是一个
Lucene索引,一个包含__倒排索引__的文件目录,倒排索引的结构使得elasticsearch在不扫描全部文档的情况下,就能告诉你哪些文档包含特定的关键字。不过,倒排索引是什么?
3.2.2类型type
在一个索引中,你可以定义一种或多种类型。-个类型是你的索引的一个逻辑上的分类/分区,其语义完全由你来定。通常,会为具有一组共同字段的文档定义一个类型。 比如说,我们假设你运营一个博客平台并且将你所有的数据存储到一个索引中。在这个索引中,你可以为用户数据定义一个类型,为博客数据定义另一个类型,当然,也可以为评论数据定义另一个类型。
类型是文档的逻辑容器,就像关系型数据库一样,表格是行的容器。类型中对于字段的定义成为映射,比如name映射为字符串类型。我们说文档是无模式的,他们不需要拥有映射中所定义的所有字段,比如新增一个字段,那么elasticsearch是怎么做的呢?elasticsearch会自动的将新字段加入映射,但是这个字段的不确定它是什么类型,elasticsearch就开始猜,如果这个值是18,那么elasticsearch就会认为它是整型,但是elasticsearch也可能猜不对,所以最安全的办法的是提前定义好所需要的映射,这点跟关系型数据库殊途同归了,先是定义好字段,然后再使用。
3.2.3字段Field
相当于是数据表的字段,对文档数据根据不同属性进行的分类标识
3.2.4映射mapping
mapping是处理数据的方式和规则方面做一些限制.如某个字段的数据类型、默认值、分析器、是否被索引等等,这些都是映射里面可以设置的,其它就是处理es里面数据的一些使用规则设置也叫做映射,按着最优规则处理数据对性能提高很大,因此才需要建立映射,并且需要思考如何建立映射才能对性能更好。
3.2.5文档document
一个文档是一个可被索引的基础信息单元。比如,你可以拥有某一个客户的文档 ,某-个产品的一 个文档,当然,也可以拥有某个订单的一个文档。文档以JSON ( Javascript Object Notation )格式来表示,而ISON是一个到处存在的互联网数据交互格式。 在一个index/type里面,你可以存储任意多的文档。注意,尽管一个文档,物理上存在于一个索引之中 ,文档必须被索引赋予一个索引的type.
之前说elasticsearch是面向文档的,那么就意味着索引和搜索数据的最小单位是文档,elasticsearch中,文档有几个重要的属性:
- 自我包含,一篇文档同时包含字段和对应的值,也就是同时包含
key-value。 - 可以是层次型的,一个文档中包含自文档,复杂的逻辑实体就是这么来的!
- 灵活的结构,文档不依赖预先定义的模式,我们知道关系型数据库中,要提前定义字段才能使用,在
elasticsearch中,对于字段是非常灵活的,有时候,我们可以忽略该字段,或者动态的添加一个新的字段。
3.2.6接近实时NRT
Elasticsearch是一个接近实时的搜索平台。这意味着,从索引-个文档直到这个文档能够被搜索到有一个轻微的延迟(通常是1秒以内)
3.2.7集群cluster
一个集群就是由一个或多个节点组织在一起,它们共同持有整个的数据,并-起提供索引和搜索功能。一个集群由一个唯一的名字标识,这个名字默认就是"elasticsearch".这个名字是重要的,因为-个节点只能通过指定某个集群的名字,来加入这个集群
3.2.8节点node
一个节点是集群中的一个服务器,作为集群的一部分,它存储数据,参与集群的索引和搜索功能。和集群类似,一个节点也是由一一个名字来标识的,默认情况下,这个名字是一个随机的漫威漫画角色的名字,这个名字会在启动的时候赋予节点。这个名字对于管理工作来说挺重要的,因为在这个管理过程中,你会去确定网络中的哪些服务器对应于Elasticsearch集群中的哪些节点。 一个节点可以通过配置集群名称的方式来加入一个指定的集群。默认情况下,每个节点都会被安排加入到一个叫做"elasticsearch"的集群中,这意味着,如果你在你的网络中启动了若干个节点,并假定它们能够相互发现彼此,它们将会自动地形成并加入到一个叫做"elasticsearch"的集群中。 在一个集群里,只要你想,可以拥有任意多个节点。而且,如果当前你的网络中没有运行任何Elasticsearch节点,这时启动一个节点,会默认创建并加入一个叫做"elasticsearch"的集群。
3.2.9分片和复制shards&replicas
一个索引可以存储超出单个结点硬件限制的大量数据。比如, 一个具有1亿文档的索引占据1 TB的磁盘空间,而任一节点都没有这样大的磁盘空间 ;或者单个节点处理搜索请求,响应太慢。为了解决这个问题, Elasticse arch提供了将索引划分成多份的能力,这些份就叫做分片。当你创建一个索引的时候 ,你可以指定你想要的分片的数量。每个分片本身也是一个功能完善并且独立的"索引”,这个“索引可以被放置到集群中的任何节点上。分片很重要,主要有两方面的原因: 1 )允许你水平分割/扩展你的内容容量。2 )允许你在分片(潜在地,位于多个节点上)之上进行分布式的、并行的操作,进而提高性能/吞吐量。 至于一个分片怎样分布,它的文档怎样聚合回搜索请求,是完全由Elasticsearch管理的,对于作为用户的你来说,这些都是透明的。 在一个网络/云的环境里,失败随时都可能发生,在某个分片/节点不知怎么的就处于离线状态,或者由于任何原因消失了,这种情况下,有一个故障转移机制是非常有用并且是强烈推荐的。为此目的, Elasticsearch允许你创建分片的一份或多份拷贝,这些拷贝叫做复制分片,或者直接叫复制。 复制之所以重要,有两个主要原因:在分片/节点失败的情况下,提供了高可用性。因为这个原因,注意到复制分片从不与原/主要(original/primary )分片置于同一节点上是非常重要的。扩展你的搜索量/吞吐量,因为搜索可以在所有的复制上并行运行。总之,每个索引可以被分成多个分片。-个索引也可以被复制0次(意思是没有复制)或多次。一旦复制了,每个索引就有了主分片(作为复制源的原来的分片)和复制分片(主分片的拷贝)之别。分片和复制的数量可以在索引创建的时候指定。在索引创建之后,你可以在任何时候动态地改变复制的数量,但是你事后不能改变分片的数量。 默认情况下, Elasticsearch中的每个索引被分片5个主分片和1个复制,这意味着,如果你的集群中至少有两个节点,你的索引将会有5个主分片和另外5个复制分片( 1个完全拷贝) , 这样的话每个索引总共就有10个分片。
3.2.10倒排索引基本介绍
elasticsearch使用的是一种称为倒排索引的结构,采用Lucene倒排索引作为底层。这种结构适用于快速的全文检索,一个索引由文档中所有不重复的列表构成,对于每一个词,都有一个包含它的文档列表。例如,现在有两个文档,每个文档包含如下内容:
Study every day,good good up to forever # 文档1包含的内容
To forever,study every day, good good up # 文档2包含的内容
为了创建倒排索引,我们首先要将每个文档拆分成独立的词(或称为词条或者tokens),然后创建一个包含所有不重复的词条的排序列表,然后列出每个词条出现在哪个文档!
| term | doc.1 | doc.2 |
|---|---|---|
| Study | √ | × |
| To | × | √ |
| every | √ | √ |
| forever | √ | √ |
| day | √ | √ |
| study | × | √ |
| good | √ | √ |
| every | √ | √ |
| to | √ | × |
| up | √ | √ |
现在我们试图搜索to forever,只需要查看包含每个词条的文档
| term | doc.1 | doc.2 |
|---|---|---|
| to | √ | × |
| forever | √ | √ |
| total | 2 | 1 |
两个文档都匹配,但是第一个文档比第二个匹配程度更高。如果没有别的条件,现在,这两个包含关键字的都将返回。
创建倒排索引步骤
1、创建文档列表:Lucene首先对原始文档数据进行编号,形成列表,就是一个文档列表。
2、创建倒排索引列表:対原始文档中的数据进行分词,得到词条。対词条进行编号,以词条创建索引。然后记录下包含该词条的所有文档编号及其他信息。
搜索的过程:
当用户输入任意的词条时,首先对用户输入的数据进行分词,得到用户要搜索的所有词条,然后拿着这些词条去倒排索引列表中进行匹配。找到这些词条就能找到包含这些词条的所有文档的编号。
然后根据这些编号去文档列表中找到文档。
第四章IK分词器插件
4.1.什么是IK分词器?
分词:即把一段中文或者别的划分为一个个的关键字,我们在搜索时候会把自己的信息进行分词,会把数据库中或者索引库中的数据进行分词,然后进行一个匹配操作,默认的中文分词是将每个字看成一个词,比如"我喜欢你"会被分为"我","喜","欢","你",这显然是不符合要求的,所以我们需要安装中文分词器ik来解决这个问题。
如果要使用中文,建议使用ik分词器。
IK提供了两个分词算法:ik_smart和ik_max_word,其中ik_smart为最少切分,ik_max_word为最细粒度划分!
4.2.安装IK分词器插件
Docker安装
压缩文件下载地址:github.com/medcl/elast…
# 注意IK要和ES版本一直
# 1、进入Docker容器执行
./bin/elasticsearch-plugin install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.8.0/elasticsearch-analysis-ik-7.8.0.zip
# 2、查看IK是否安装成功
[root@a2fa79fcb8ef bin]# ./elasticsearch-plugin list
analysis-ik
4.3.查看不同的分词器
ik_smart最少切分
ik_max_word为最细粒度划分!穷尽所有可能!
4.3.自定义字典
给IK增加字典
<!--第一步:在IKAnalyzer.cfg.xml同级目录下新建一个自己的字典ringo.dic并写入内容-->
棠时
<!--找到IKAnalyzer.cfg.xml可以增加自己的字典-->
<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE properties SYSTEM "http://java.sun.com/dtd/properties.dtd">
<properties>
<comment>IK Analyzer 扩展配置</comment>
<!--用户可以在这里配置自己的扩展字典 -->
<entry key="ext_dict">ringo.dic</entry>
<!--用户可以在这里配置自己的扩展停止词字典-->
<entry key="ext_stopwords"></entry>
<!--用户可以在这里配置远程扩展字典 -->
<!-- <entry key="remote_ext_dict">words_location</entry> -->
<!--用户可以在这里配置远程扩展停止词字典-->
<!-- <entry key="remote_ext_stopwords">words_location</entry> -->
</properties>
<!--第三步:重启elasticsearch-->
测试
# 1、没有增加自己定义的字典之前
# 测试样例
GET _analyze
{
"analyzer": "ik_smart",
"text": "棠时"
}
# 结果
{
"tokens" : [
{
"token" : "棠",
"start_offset" : 0,
"end_offset" : 1,
"type" : "CN_CHAR",
"position" : 0
},
{
"token" : "时",
"start_offset" : 1,
"end_offset" : 2,
"type" : "CN_CHAR",
"position" : 1
}
]
}
# 2、增加自己自定义的词典并重启elasticsearch之后
# 测试样例
GET _analyze
{
"analyzer": "ik_smart",
"text": "棠时"
}
# 结果
{
"tokens" : [
{
"token" : "棠时",
"start_offset" : 0,
"end_offset" : 2,
"type" : "CN_WORD",
"position" : 0
}
]
}
第五章关于索引的基本操作
5.1.Rest模板
| method | url地址 | 描述 |
|---|---|---|
| PUT | localhost:9200/索引名称/类型名称/文档id | 创建文档(指定文档id) |
| POST | localhost:9200/索引名称/类型名称 | 创建文档(随机文档id) |
| POST | localhost:9200/索引名称/类型名称/文档id/_update | 修改文档 |
| DELETE | localhost:9200/索引名称/类型名称/文档id | 删除文档 |
| GET | localhost:9200/索引名称/类型名称/文档id | 通过文档id查询文档 |
| POST | localhost:9200/索引名称/类型名称/_search | 查询所有数据 |
5.2.添加索引
当然不是只有kibana可以测试,使用其他软件如Postman或者Talend APT Tester都可以。
# 使用Postman测试
# 基本语法
POST请求 http://39.97.3.60:9200/索引名/~类型名~/文档id
{请求体}
# 1、测试创建索引(添加了文档)
POST请求 http://39.97.3.60:9200/test1/_doc/1
{
"name": "Ringo",
"age": 3
}
# 2、测试创建索引规则(不添加文档)
PUT请求 http://39.97.3.60:9200/test2
{
"mappings": {
"properties": {
"name": {
"type": "text"
},
"age": {
"type": "long"
},
"birthday": {
"type": "date"
}
}
}
}
# 3、获取索引具体的信息
GET请求 http://39.97.3.60:9200/test2
5.3.查看索引默认信息
# 1、创建索引并添加数据
POST请求 http://39.97.3.60:9200/test3/_doc/1
{
"name": "Ringo",
"age": 18,
"birth": "1997-11-13"
}
# 2、我们自己没有为索引写mapping映射查看索引默认的信息
GET请求 http://39.97.3.60:9200/test3
# 返回的结果,ES给我们的字段自动加上了类型
{
"test3": {
"aliases": {},
"mappings": {
"properties": {
"age": {
"type": "long"
},
"birth": {
"type": "date"
},
"name": {
"type": "text",
"fields": {
"keyword": {
"type": "keyword",
"ignore_above": 256
}
}
}
}
},
}
}
如果自己的文档字段没有指定类型,那么elasticsearch就会给我们默认配置字段类型!
5.4.扩展命令
# 1、查看ElasticSearch健康状态
GET请求 http://39.97.3.60:9200/_cat/health
# 2、查看ElasticSearch详细信息
GET请求 http://39.97.3.60:9200/_cat/indices?v
5.5.修改索引
# 方式一:修改文档
PUT请求 http://39.97.3.60:9200/test3/_doc/1
{
"name": "Ringo",
"age": 18,
"birth": "1997-11-13"
}
# 返回结果
{
"_index": "test3",
"_type": "_doc",
"_id": "1",
"_version": 3, # 发现修改一次之后版本号会增加1
"result": "updated",
"_shards": {
"total": 2,
"successful": 1,
"failed": 0
},
}
# 方式二:修改文档
POST请求 http://39.97.3.60:9200/test3/_doc/1/_update
{
"doc": {
"name": "Ringo",
"age": 19,
"birth": "1997-11-13"
}
}
# 返回结果
{
"_index": "test3",
"_type": "_doc",
"_id": "1_update",
"_version": 3,
"result": "updated",
"_shards": {
"total": 2,
"successful": 1,
"failed": 0
},
}
5.6.删除索引
# 1、删除索引
DELETE请求 http://39.97.3.60:9200/test1
# 2、删除文档
DELETE请求 http://39.97.3.60:9200/test3/_doc/1
第六章关于文档的基本操作
6.1.基本操作
# 1、创建文档
POST请求 http://39.97.3.60:9200/ringo/_doc/1
{
"name": "RingoTangs",
"age": 18,
"describe": "铃铃铃",
"tags": ["阳光","喜欢篮球","喜欢学习"]
}
# 2、获取数据
GET请求 http://39.97.3.60:9200/ringo/_doc/1
# 3、更新数据,PUT如果不写全字段就会被覆盖
PUT请求 http://39.97.3.60:9200/ringo/_doc/3
{
"name": "李四233",
"age": 30,
"describe": "法外狂徒,李四",
"tags": ["靓仔","喜欢唱歌","喜欢学习"]
}
# 4、推荐使用POST来更新,自由度很高,携带的JSON可以只写修改字段
POST请求 http://39.97.3.60:9200/ringo/_doc/3/_update
{
"doc": {
"name": "李四999"
}
}
6.2.简单查询
# 1、简单的条件查询
GET请求 http://39.97.3.60:9200/ringo/_search?q=name:张三
GET请求 http://39.97.3.60:9200/ringo/_search?q=tags:篮球
6.3.复杂查询
# 1、带上查询条件,match只要名字中有"张三"的都会被检索出来
POST请求 http://39.97.3.60:9200/ringo/_search
{
"query": {
"match": {
"name": "张三"
}
}
}
# 2、查询结果返回具体的字段,使用"_source"
POST请求 http://39.97.3.60:9200/ringo/_search
{
"query": {
"match": {
"name": "张三"
}
},
"_source": ["name", "age"]
}
# 3、查询结果排序,使用"sort",通过某个字段进行排序
POST请求 http://39.97.3.60:9200/ringo/_search
{
"query": {
"match": {
"name": "张三"
}
},
"_source": ["name", "age"],
"sort": [{
"age": {
"order": "asc"
}
}]
}
# 4、分页查询 "from"从哪里开始,“size"每页显示几条数据
POST请求 http://39.97.3.60:9200/ringo/_search
{
"query": {
"match": {
"name": "张三"
}
},
"_source": ["name", "age"],
"from": 0,
"size": 1
}
# 5、通过"bool"和"must"组合使用,可以多条件组合查询,等价于and
# 会把name="张三"和age=30的文档查出来
POST请求 http://39.97.3.60:9200/ringo/_search
{
"query": {
"bool": {
"must": [{
"match": {
"name": "张三"
}
}, {
"match": {
"age": 30
}
}]
}
}
}
# 4、"should"有一个条件符合即可,等价于or
# 会把name="张三"或者age=18的文档查出来
POST请求 http://39.97.3.60:9200/ringo/_search
{
"query": {
"bool": {
"should": [{
"match": {
"name": "张三"
}
}, {
"match": {
"age": 18
}
}]
}
}
}
# 5、"must_not"查询年龄不是18岁的人
POST请求 http://39.97.3.60:9200/ringo/_search
{
"query": {
"bool": {
"must_not": [{
"match": {
"age": 18
}
}]
}
}
}
# 6、查询结果过滤,范围查询
# gt:大于
# gte:大于等于
# lt:小于
# lte:小于等于
POST请求 http://39.97.3.60:9200/ringo/_search
{
"query": {
"bool": {
"must":[{
"match": {
"name": "张三"
}
}],
"filter": {
"range": {
"age": {
"gt": 19
}
}
}
}
}
}
# 7、多条件使用空格隔开,只要满足其中一个结果就可以被查出
POST请求 http://39.97.3.60:9200/ringo/_search
{
"query": {
"match": {
"tags": "喜欢 阳光"
}
}
}
# 8、精确查询term "term"输入的词不会被分词,"match"会使用分词器解析
# term查询是直接通过倒排索引指定的词条进行精确查找的!
# 注意:keyword类型的字段不会被分词器解析!!!
PUT /testdb
{
"mappings": {
"properties": {
"name": {
"type": "text" # text类型会走分词器
},
"describe": {
"type": "keyword" # keyword不会走分词器,当成一个整体
}
}
}
}
GET /testdb/_search
{
"query": {
"term": {
"describe": "Ringo 每天都要好好学习"
}
}
}
# 9、高亮查询
# 测试样例
GET /testdb/_search
{
"query": {
"match": {
"name": "棠时"
}
},
"highlight": {
"pre_tags": "<p class='key' style='color:red'>",
"post_tags": "</p>",
"fields": {
"name": {}
}
}
}
# 结果
"highlight" : {
"name" : [
"<p class='key' style='color:red'>棠</p><p class='key' style='color:red'>时</p>每天都要开心"
]
}
第七章SpringBoot整合ES
官方文档地址:www.elastic.co/guide/en/el…
7.1.基本环境和配置
pom
<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
<modelVersion>4.0.0</modelVersion>
<groupId>com.ymy</groupId>
<artifactId>elastic-search-api</artifactId>
<version>1.0-SNAPSHOT</version>
<properties>
<!--重点:注意这里要和我们Linux上安装的客户端版本对应-->
<elasticsearch.version>7.8.0</elasticsearch.version>
</properties>
<parent>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-parent</artifactId>
<version>2.2.4.RELEASE</version>
</parent>
<dependencies>
<!--web-->
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-web</artifactId>
</dependency>
<!--elasticsearch 注意elasticsearch的jar要和Linux上装的客户端版本对应-->
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-data-elasticsearch</artifactId>
</dependency>
<!--test-->
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-test</artifactId>
<scope>test</scope>
</dependency>
</dependencies>
<build>
<plugins>
<plugin>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-maven-plugin</artifactId>
<version>2.2.6.RELEASE</version>
<configuration>
<fork>true</fork>
<addResources>true</addResources>
</configuration>
</plugin>
</plugins>
</build>
</project>
SpringBoot的依赖中,默认用的elasticsearch版本还是6.8.6。我们只需要在我们自己的pom文件的<properties>修改elasticsearch版本为Linux服务器上的版本即可。
<!--这是SpringBoot依赖管理中使用的ES版本-->
<properties>
<elasticsearch.version>6.8.6</elasticsearch.version>
</properties>
<dependencyManagement>
<dependencies>
<dependency>
<groupId>org.elasticsearch</groupId>
<artifactId>elasticsearch</artifactId>
<version>${elasticsearch.version}</version>
</dependency>
<dependency>
<groupId>org.elasticsearch.client</groupId>
<artifactId>transport</artifactId>
<version>${elasticsearch.version}</version>
</dependency>
....
</dependencies>
</dependencyManagement>
elasticsearch配置
import lombok.extern.slf4j.Slf4j;
import org.elasticsearch.client.RestHighLevelClient;
import org.springframework.beans.factory.annotation.Value;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import org.springframework.data.elasticsearch.client.ClientConfiguration;
import org.springframework.data.elasticsearch.client.RestClients;
import org.springframework.data.elasticsearch.config.AbstractElasticsearchConfiguration;
@Configuration
@Slf4j
public class ElasticsearchConfig extends AbstractElasticsearchConfiguration {
@Value("${elasticsearch.address}")
private String address;
@Value("${elasticsearch.esUsername}")
private String esUsername;
@Value("${elasticsearch.esPassword}")
private String esPassword;
@Override
@Bean
public RestHighLevelClient elasticsearchClient() {
log.info("address:{}, username:{}, pwd:{}", address, esUsername, esPassword);
final ClientConfiguration clientConfiguration = ClientConfiguration.builder()
.connectedTo(address)
.withBasicAuth(esUsername, esPassword)
.build();
return RestClients.create(clientConfiguration).rest();
}
}
7.2.关于索引的API操作
package com.ymy.elasticsearch;
import org.elasticsearch.action.admin.indices.delete.DeleteIndexRequest;
import org.elasticsearch.action.support.master.AcknowledgedResponse;
import org.elasticsearch.client.RequestOptions;
import org.elasticsearch.client.RestHighLevelClient;
import org.elasticsearch.client.indices.CreateIndexRequest;
import org.elasticsearch.client.indices.CreateIndexResponse;
import org.elasticsearch.client.indices.GetIndexRequest;
import org.elasticsearch.client.indices.GetIndexResponse;
import org.junit.Test;
import org.junit.runner.RunWith;
import org.springframework.boot.test.context.SpringBootTest;
import org.springframework.test.context.junit4.SpringRunner;
import javax.annotation.Resource;
/**
* ES关于索引的操作
*/
@RunWith(SpringRunner.class)
@SpringBootTest
public class TestESIdxAPI {
@Autowired
private RestHighLevelClient restHighLevelClient;
public static final String INDEX_NAME = "test_es_idx_api";
}