elasticsearch其实就是一个分布式系统,需要满足分布式系统具备的高可用性和可扩展性
分布式系统的可用性与扩展性
- 高可用性
- 服务可用性-允许有节点停止服务
- 数据可用性-部分节点丢失,不会丢失数据
- 可扩展性
- 请求量提升/数据的不断增长(将数据分布到所有节点上)
分布式特性
- elasticsearch的分布式架构好处
- 存储的水平扩容
- 提高系统的可用性,部分节停止服务,整个集群的服务不受影响
- ElasticSearch的分布式架构
- 不同的集群通过不同的名字来区分,默认名字”elasticsearch“
- 通过配置文件修改,或者在命令行中
-E cluster.name=geektime
进行设定 - 一个集群可以用多个节点
节点
- 是一个elasticsearch的实例
- 本质上是一个java进程
- 一台机器上可以运行多个elasticsearch进程,但是生产环境一般建议一台机器上运行一个elasticsearch实例
- 每一个节点都有名字,通过配置文件配置,或者启动时候
-E node.name=node1
指定 - 每一个节点在启动之后,会分配一个UID,保存在data目录下
不同的节点承担了不同的角色

Master-eligible nodes和Master Node
- 每个节点启动后,默认就是一个Master eligible节点
- 可以设置node.master:false禁止
- Master-eligible节点可以参加选主流程,成为master节点
- 当第一个节点启动时候,它会将自己选举成Master节点
- 每个节点上保存了集群的状态,只有master节点才能修改集群的状态信息
- 集群状态(Cluster State),维护了一个集群中,必要的信息
- 所有的节点信息
- 所有的索引和其相关的Mapping与Setting信息
- 分片的路由信息
- 任意节点都能修改信息会导致数据的不一致性
- 集群状态(Cluster State),维护了一个集群中,必要的信息
Data Node & Coordinate Node
- Data Node
- 可以保存数据的节点,叫做Data Node,负责保存分片数据。在数据扩展上起到了至关重要的作用
- Coordinate Node
- 负责接受Client的请求,将请求分发到合适的节点,最终将结果汇集到一起
- 每个节点默认起到了Coordinate Node的职责
其他的节点类型
- Hot & Warm Node
- 不同硬件配置的Data Node,用来实现Hot & Warm架构,降低集群部署的成本
- Machine Learning Node
- 负责跑机器学习的 Job,用来做异常检测
- Tribe Node
- 5.3开始使用Cross Cluster Search ,Tribe Node连接到不同的Elasticsearch集群,并且支持将这些集群当成一个单独的集群处理
配置节点类型
- 开发环境中一个节点可以承担多种角色
- 生产环境配置单一角色:更好性能,单一角色
节点类型 | 配置参数 | 默认值 |
---|---|---|
master eligible | node.master | true |
data | node.data | true |
ingest | node.ingest | true |
coordinating only | 无 | 每个节点默认都是coordinate节点。设置其他类型为false |
machine learning | node.ml | true(需设置 enable x-pack) |
分片(Primary Shard & Replica Shard)
-
主分片,用以解决数据水平扩展的问题。通过主分片,可以将数据分布到集群内的所有节点之上
- 一个分片是一个运行的 Lucene 的实例
- 主分片数在索引创建时指定,后续不允许修改,除非 通过Reindex方式进行
-
副本,用以解决数据高可用的问题,分片是主分片的拷贝
- 副本分片数,可以动态调整
- 增加副本数,还可以在一定程度上提高服务的可用性(读取的吞吐)
-
一个三节点的集群中,
blogs
索引的分片分布情况

一个主分片分散到三个节点上,每个节点存在一个副本分片
分片的设定
- 对于生成环境分片的设定,需要提前做好容量规划
- 分片数设置过小
- 导致后续无法增加节点实现水平扩展
- 单个分片的数据量太大,导致数据重新分配耗时
- 分片数设置过大,7.0开始,默认主分片设置为1,解决了over-sharding的问题
- 影响搜索结果的相关性打分,影响统计结果的准确性
- 单个节点上过多的分片,会导致资源浪费,同时也会影响性能
- 分片数设置过小
查看集群的健康状况
GET _cluster/health
{
"cluster_name" : "elasticsearch",
"status" : "yellow",
"timed_out" : false,
"number_of_nodes" : 1,
"number_of_data_nodes" : 1,
"active_primary_shards" : 6,
"active_shards" : 6,
"relocating_shards" : 0,
"initializing_shards" : 0,
"unassigned_shards" : 1,
"delayed_unassigned_shards" : 0,
"number_of_pending_tasks" : 0,
"number_of_in_flight_fetch" : 0,
"task_max_waiting_in_queue_millis" : 0,
"active_shards_percent_as_number" : 85.71428571428571
}
- Green-主分片与副本都正常分配
- Yellow-主分片全部正常分配,副本分片未能正常分配
- Red-有主分片未能分配
- 例如,当服务器的磁盘容量超过85%时,去创建一个新的索引
安装cerebro
-
建议通过github先下载文件(下载地址:github.com/lmenezes/ce…),然后进行安装
tar zxvf cerebro-0.8.4.tgz cd cerebro-0.8.4
-
启动
bin/cerebro
-
访问网址:http://ip:9000

集群中目前只有一个工作节点
操作示例
- 需要通过Kibana导入Sample Data的电商数据。具体参考“Kibana的安装与界面快速浏览”
get _cat/nodes?v
GET /_nodes/es7_01,es7_02
GET /_cat/nodes?v
GET /_cat/nodes?v&h=id,ip,port,v,m
GET _cluster/health
GET _cluster/health?level=shards
GET /_cluster/health/kibana_sample_data_ecommerce,kibana_sample_data_flights
GET /_cluster/health/kibana_sample_data_flights?level=shards
#### cluster state
The cluster state API allows access to metadata representing the state of the whole cluster. This includes information such as
GET /_cluster/state
#cluster get settings
GET /_cluster/settings
GET /_cluster/settings?include_defaults=true
GET _cat/shards
GET _cat/shards?h=index,shard,prirep,state,unassigned.reason