Elasticsearch 集群 单服务器 超级详细教程

曾经终败给现在 2022-05-21 02:37 226阅读 0赞

前言

之前了解了Elasticsearch的基本概念。将spring boot + ElasticSearch + head插件 搞通之后。紧接着对es进行下一步的探索:集群。查阅资料的过程中,找到了一篇超鸡详细的博客~~转载以方便日后查阅。亲自实践能更快理解哦。

二话不说,先贴上转载地址,QAQ:
博客出处(博主):Thinkgamer博客
博客原文地址:Elasticsearch5.2.1集群搭建,动态加入节点,并添加监控诊断插件

还有一篇es安装head教程,一并贴上地址:ElasticSearch-5.0安装head插件


注:以下均为转载博客内容


写在前面的话

之前写过一篇文章是: 如何使用一个IP搭建ES集群——Docker如你所愿,在该篇文章中说明了Elasticsearch集群的单播和多播的概念和差别,以及在生产环境中的利与弊。其实在里边也写了怎么搭建集群,但是整个流程走下来是有很多bug的,那么这篇文章就好好聊一下如何搭建一个完整的Elasticsearch集群,并灵活添加节点。


环境准备

1:Elasticsearch 5.2.1 ZIP包下载:点击下载
2:Ubuntu 16.04
3:Java 1.8
4:解压包到/opt/elk/目录下,生成两个Elasticsearch文件夹,如下

  1. >ls /opt/elk
  2. elasticsearch-5.2.1_1 elasticsearch-5.2.1_2

5:赋予权限,否则在启动的过程中会报错(可选,根据自己的情况而定)

  1. sudo chown -R master;master elasticsearch-5.2.1_*

配置说明

注意:以下配置过程中可能会出现权限错误,由于我是在/opt/elk目录下进行的,所以有权限问题

1:Elasticsearch集群中的三种角色

  • master node:master几点主要用于元数据(metadata)的处理,比如索引的新增、删除、分片分配等。
  • data node:data 节点上保存了数据分片。它负责数据相关操作,比如分片的 CRUD,以及搜索和整合操作。这些操作都比较消耗 CPU、内存和 I/O 资源;
  • client node:client 节点起到路由请求的作用,实际上可以看做负载均衡器。

其对应的高性能集群拓扑结构模式为:

  1. # 配置文件中给出了三种配置高性能集群拓扑结构的模式,如下:
  2. # 1. 如果你想让节点从不选举为主节点,只用来存储数据,可作为负载器
  3. # node.master: false
  4. # node.data: true
  5. # 2. 如果想让节点成为主节点,且不存储任何数据,并保有空闲资源,可作为协调器
  6. # node.master: true
  7. # node.data: false
  8. # 3. 如果想让节点既不称为主节点,又不成为数据节点,那么可将他作为搜索器,从节点中获取数据,生成搜索结果等
  9. # node.master: false
  10. # node.data: false

2:config/elasticsearch.ymal中配置项说明

  • cluster_name 集群名称,默认为elasticsearch,这里我们设置为es5.2.1Cluster
  • node.name配置节点名,用来区分节点
  • network.host 是配置可以访问本节点的路由地址
  • http.port 路由地址端口
  • transport.tcp.port TCP协议转发地址端口
  • node.master 是否作为集群的主结点 ,值为true或true
  • node.data 是否存储数据,值为true或true
  • discovery.zen.ping.unicast.hosts 用来配置所有用来组建集群的机器的IP地址,由于5.2.1新版本是不支持多播的,因此这个值需要提前设定好,当集群需要扩展的时候,该值都要做改变,增加新机器的IP地址,如果是在一个ip上,要把TCP协议转发端口写上
  • discovery.zen.minimum_master_nodes 用来配置主节点数量的最少值,如果主节点数量低于该值,闭包范围内的集群将会停止服务,之所以加粗体,是因为暂时尚未认证,下面配置为1方便集群更容易形成,即使只有一个主节点,也可以构建集群
  • gateway.* 网关的相关配置
  • script.* indices.* 根据需求添加的配置(可选)

3:elasticsearch-5.2.1_1中的yaml文件

该结点作为master-node运行

  1. cluster.name: es5
  2. node.name: node-1
  3. network.host: 0.0.0.0
  4. http.port: 9200
  5. transport.tcp.port: 9300
  6. node.master: true
  7. node.data: true
  8. discovery.zen.ping.unicast.hosts: ["0.0.0.0:9300", "0.0.0.0:9301", "0.0.0.0:9302"]
  9. discovery.zen.minimum_master_nodes: 2
  10. gateway.recover_after_nodes: 2
  11. gateway.recover_after_time: 5m
  12. gateway.expected_nodes: 1
  13. script.engine.groovy.inline.search: on
  14. script.engine.groovy.inline.aggs: on
  15. indices.recovery.max_bytes_per_sec: 20mb

4:elasticsearch-5.2.1_2中的yaml文件

该结点作为data-node运行

  1. cluster.name: es5
  2. node.name: node-2
  3. network.host: 0.0.0.0
  4. http.port: 9201
  5. transport.tcp.port: 9301
  6. node.master: false
  7. node.data: true
  8. discovery.zen.ping.unicast.hosts: ["0.0.0.0:9300", "0.0.0.0:9301", "0.0.0.0:9302"]
  9. discovery.zen.minimum_master_nodes: 2
  10. gateway.recover_after_nodes: 2
  11. gateway.recover_after_time: 5m
  12. gateway.expected_nodes: 1
  13. script.engine.groovy.inline.search: on
  14. script.engine.groovy.inline.aggs: on
  15. indices.recovery.max_bytes_per_sec: 20mb

5:elasticsearch-5.2.1_3中的yaml文件

该结点作为client-node运行

  1. cluster.name: es5
  2. node.name: node-3
  3. network.host: 0.0.0.0
  4. http.port: 9202
  5. transport.tcp.port: 9302
  6. node.master: false
  7. node.data: false
  8. discovery.zen.ping.unicast.hosts: ["0.0.0.0:9300", "0.0.0.0:9301", "0.0.0.0:9302"]
  9. discovery.zen.minimum_master_nodes: 2
  10. gateway.recover_after_nodes: 2
  11. gateway.recover_after_time: 5m
  12. gateway.expected_nodes: 1
  13. script.engine.groovy.inline.search: on
  14. script.engine.groovy.inline.aggs: on
  15. indices.recovery.max_bytes_per_sec: 20mb

启动三个结点,打开http://localhost:9200/

集群状态

查看 http://localhost:9200/_cluster/health?pretty=true 出现错误:

  1. no known master node, scheduling a retry

原因是:我们设置的主节点只有一个而

  1. discovery.zen.minimum_master_nodes: 2

所以这里改为1即可,然后此时还可能会遇到一个问题就是node2和node3不能加入到集群,报的错如下:

  1. [node-2] failed to send join request to master [{node-1}{WbcP0pC_T32jWpYvu5is1A}{2_LCVHx1QEaBZYZ7XQEkMg}{10.10.11.200}{10.10.11.200:9300}], reason [RemoteTransportException[[node-1][10.10.11.200:9300][internal:discovery/zen/join]]; nested: IllegalArgumentException[can't add node {node-2}{WbcP0pC_T32jWpYvu5is1A}{p-HCgFLvSFaTynjKSeqXyA}{10.10.11.200}{10.10.11.200:9301}, found existing node {node-1}{WbcP0pC_T32jWpYvu5is1A}{2_LCVHx1QEaBZYZ7XQEkMg}{10.10.11.200}{10.10.11.200:9300} with the same id but is a different node instance]; ]

原因是:是因为复制的elasticsearch文件夹下包含了data文件中示例一的节点数据,需要把示例二data文件下的文件清空。
然后在查看集群状态:

  1. {
  2. "cluster_name" : "es5",
  3. "status" : "yellow",
  4. "timed_out" : false,
  5. "number_of_nodes" : 3,
  6. "number_of_data_nodes" : 2,
  7. "active_primary_shards" : 22,
  8. "active_shards" : 22,
  9. "relocating_shards" : 0,
  10. "initializing_shards" : 0,
  11. "unassigned_shards" : 21,
  12. "delayed_unassigned_shards" : 0,
  13. "number_of_pending_tasks" : 0,
  14. "number_of_in_flight_fetch" : 0,
  15. "task_max_waiting_in_queue_millis" : 0,
  16. "active_shards_percent_as_number" : 51.162790697674424
  17. }

6:配置head插件

克隆到本地:

  1. git clone git://github.com/mobz/elasticsearch-head.git

进入到文件夹,并安装

  1. cd elasticsearch-head
  2. npm install

在elasticsearch.ymal文件中添加:

  1. http.cors.enabled: true
  2. http.cors.allow-origin: "*"

运行

  1. npm install -g grunt
  2. grunt server

查看http://localhost:9100/

es集群


配置logstash解析rsyslog文件

配置rsyslog参考:http://blog.csdn.net/gamer_gyt/article/details/54025857
编写相应的jx_syslog.conf 解析文件

  1. input {
  2. tcp{
  3. port => 5000
  4. type => syslog
  5. }
  6. udp{
  7. port => 5000
  8. type => syslog
  9. }
  10. }
  11. filter {
  12. if [type] == 'syslog'{
  13. grok {
  14. match => { 'message' => '%{SYSLOGTIMESTAMP:syslog_timestamp} %{HOSTNAME:hostname} %{WORD:program}%{GREEDYDATA:msgsplit}'
  15. }
  16. }
  17. date {
  18. match => [ "syslog_timestamp", "MMM d HH:mm:ss", "MMM dd HH:mm:ss" ]
  19. target => "syslog_timestamp"
  20. timezone => "UTC"
  21. }
  22. # processing repeated messages
  23. if [msgsplit] =~ "message repeated " {
  24. grok { match => [ "msgsplit", "\[%{BASE10NUM:pid}\]: message repeated %{BASE10NUM:ntimes} times: \[ Failed password for %{NOTSPACE:user} from %{IP:src_ip} port %{BASE10NUM:src_port} %{WORD:protocol}\]" ]
  25. tag_on_failure => ["parsefailure", "ssh_failed_login", "ssh_repeat_message" ]
  26. add_tag => [ "ssh_repeat_message", "grokked", "ssh_failed_login" ]
  27. }
  28. }
  29. # SSH successful login
  30. else if [msgsplit] =~ "Accepted password for" {
  31. mutate {
  32. replace => { type => "success_syslog" }
  33. }
  34. grok {
  35. match => [ "msgsplit", "\[%{BASE10NUM:pid}\]: Accepted password for %{NOTSPACE:user} from %{IP:src_ip} port %{BASE10NUM:src_port} %{WORD:protocol}" ]
  36. tag_on_failure => ["parsefailure", "ssh_successful_login" ]
  37. add_tag => [ "ssh_successful_login", "grokked" ]
  38. }
  39. }
  40. # SSH Brute force attemp
  41. else if [msgsplit] =~ "Failed password for invalid user" {
  42. mutate {
  43. replace => { type => "brute_syslog" }
  44. }
  45. grok {
  46. match => [ "msgsplit", "\[%{BASE10NUM:pid}\]: Failed password for invalid user %{NOTSPACE:user} from %{IP:src_ip} port %{BASE10NUM:src_port} %{WORD:protocol}" ]
  47. add_tag => [ "ssh_brute_force", "grokked" ]
  48. tag_on_failure => ["parsefailure", "ssh_brute_force" ]
  49. }
  50. }
  51. # SSH failed login
  52. else if [msgsplit] =~ "Failed password for" {
  53. mutate {
  54. replace => { type => "fail_syslog" }
  55. }
  56. grok { match => [ "msgsplit", "\[%{BASE10NUM:pid}\]: Failed password for %{NOTSPACE:user} from %{IP:src_ip} port %{BASE10NUM:src_port} %{WORD:protocol}" ]
  57. add_tag => [ "ssh_failed_login", "grokked" ]
  58. tag_on_failure => ["parsefailure", "ssh_failed_login" ]
  59. }
  60. }
  61. else {
  62. drop { }
  63. }
  64. }
  65. }
  66. output {
  67. if [type] in ['success_syslog', 'brute_syslog', 'fail_syslog'] {
  68. elasticsearch {
  69. hosts => ["http://localhost:9200"]
  70. #index => "ssh_login-%{+YYYY.MM.dd}"
  71. index => "%{type}-%{+YYYY.MM.dd}"
  72. }
  73. }
  74. }

运行logstash:
bin/logstash -f conf/jx_syslog.conf
ssh 模拟登录
查看es集群
node-1是master结点,node-2是data结点,node-3不存储数据,作为负载均衡使用

es集群


踩过的坑

  • 1:我是在虚拟机中进行的,由于硬盘内存不足,在es集群正常启动之后,logstash往es集群写数据时不能正常写入
  • 2:复制elasticsearch文件夹时,如果原来的es文件夹下存在node数据,那么es集群也不能正常启动
  • 3:配置master结点个数,由于我是三台机器,一个master node,一个data node,一个client node,然后设置 discovery.zen.minimum_master_nodes: 2,es集群也不能正常启动,建议这里设置为1

elasticsearch.ymal配置文件说明

  1. 上边已经对我配置es集群设置的参数有了简单的说明,但是其实还有许多参数没有设置和说明
  2. 修改配置 /etc/elasticsearch/elasticsearch.yml 以下对相关字段以注释方式进行解析.
  3. ##################### Elasticsearch Configuration Example #####################
  4. # 我只是挑些重要的配置选项进行注释,其实自带的已经有非常细致的英文注释了.有理解偏差的地方请以英文原版解释为准.
  5. ################################### Cluster ###################################
  6. # 代表一个集群,集群中有多个节点,其中有一个为主节点,这个主节点是可以通过选举产生的,主从节点是对于集群内部来说的.
  7. # es的一个概念就是去中心化,字面上理解就是无中心节点,这是对于集群外部来说的,因为从外部来看es集群,在逻辑上是个整体,你与任何一个节点的通信和与整个es集群通信是等价的。
  8. # cluster.name可以确定你的集群名称,当你的elasticsearch集群在同一个网段中elasticsearch会自动的找到具有相同cluster.name的elasticsearch服务.
  9. # 所以当同一个网段具有多个elasticsearch集群时cluster.name就成为同一个集群的标识.
  10. #cluster.name: elasticsearch
  11. #################################### Node #####################################
  12. # 节点名称同理,可自动生成也可手动配置.
  13. #node.name: "Franz Kafka"
  14. # 允许一个节点是否可以成为一个master节点,es是默认集群中的第一台机器为master,如果这台机器停止就会重新选举master.
  15. #node.master: true
  16. # 允许该节点存储数据(默认开启)
  17. #node.data: true
  18. # 配置文件中给出了三种配置高性能集群拓扑结构的模式,如下:
  19. # 1. 如果你想让节点从不选举为主节点,只用来存储数据,可作为负载器
  20. # node.master: false
  21. # node.data: true
  22. #
  23. # 2. 如果想让节点成为主节点,且不存储任何数据,并保有空闲资源,可作为协调器
  24. # node.master: true
  25. # node.data: false
  26. #
  27. # 3. 如果想让节点既不称为主节点,又不成为数据节点,那么可将他作为搜索器,从节点中获取数据,生成搜索结果等
  28. # node.master: false
  29. # node.data: false
  30. # 监控集群状态有一下插件和API可以使用:
  31. # Use the Cluster Health API [http://localhost:9200/_cluster/health], the
  32. # Node Info API [http://localhost:9200/_nodes] or GUI tools
  33. # such as <http://www.elasticsearch.org/overview/marvel/>,
  34. # <http://github.com/karmi/elasticsearch-paramedic>,
  35. # <http://github.com/lukas-vlcek/bigdesk> and
  36. # <http://mobz.github.com/elasticsearch-head> to inspect the cluster state.
  37. # A node can have generic attributes associated with it, which can later be used
  38. # for customized shard allocation filtering, or allocation awareness. An attribute
  39. # is a simple key value pair, similar to node.key: value, here is an example:
  40. #
  41. #node.rack: rack314
  42. # By default, multiple nodes are allowed to start from the same installation location
  43. # to disable it, set the following:
  44. #node.max_local_storage_nodes: 1
  45. #################################### Index ####################################
  46. # 设置索引的分片数,默认为5
  47. #index.number_of_shards: 5
  48. # 设置索引的副本数,默认为1:
  49. #index.number_of_replicas: 1
  50. # 配置文件中提到的最佳实践是,如果服务器够多,可以将分片提高,尽量将数据平均分布到大集群中去
  51. # 同时,如果增加副本数量可以有效的提高搜索性能
  52. # 需要注意的是,"number_of_shards" 是索引创建后一次生成的,后续不可更改设置
  53. # "number_of_replicas" 是可以通过API去实时修改设置的
  54. #################################### Paths ####################################
  55. # 配置文件存储位置
  56. #path.conf: /path/to/conf
  57. # 数据存储位置(单个目录设置)
  58. #path.data: /path/to/data
  59. # 多个数据存储位置,有利于性能提升
  60. #path.data: /path/to/data1,/path/to/data2
  61. # 临时文件的路径
  62. #path.work: /path/to/work
  63. # 日志文件的路径
  64. #path.logs: /path/to/logs
  65. # 插件安装路径
  66. #path.plugins: /path/to/plugins
  67. #################################### Plugin ###################################
  68. # 设置插件作为启动条件,如果一下插件没有安装,则该节点服务不会启动
  69. #plugin.mandatory: mapper-attachments,lang-groovy
  70. ################################### Memory ####################################
  71. # 当JVM开始写入交换空间时(swapping)ElasticSearch性能会低下,你应该保证它不会写入交换空间
  72. # 设置这个属性为true来锁定内存,同时也要允许elasticsearch的进程可以锁住内存,linux下可以通过 `ulimit -l unlimited` 命令
  73. #bootstrap.mlockall: true
  74. # 确保 ES_MIN_MEM 和 ES_MAX_MEM 环境变量设置为相同的值,以及机器有足够的内存分配给Elasticsearch
  75. # 注意:内存也不是越大越好,一般64位机器,最大分配内存别才超过32G
  76. ############################## Network And HTTP ###############################
  77. # 设置绑定的ip地址,可以是ipv4或ipv6的,默认为0.0.0.0
  78. #network.bind_host: 192.168.0.1
  79. # 设置其它节点和该节点交互的ip地址,如果不设置它会自动设置,值必须是个真实的ip地址
  80. #network.publish_host: 192.168.0.1
  81. # 同时设置bind_host和publish_host上面两个参数
  82. #network.host: 192.168.0.1
  83. # 设置节点间交互的tcp端口,默认是9300
  84. #transport.tcp.port: 9300
  85. # 设置是否压缩tcp传输时的数据,默认为false,不压缩
  86. #transport.tcp.compress: true
  87. # 设置对外服务的http端口,默认为9200
  88. #http.port: 9200
  89. # 设置请求内容的最大容量,默认100mb
  90. #http.max_content_length: 100mb
  91. # 使用http协议对外提供服务,默认为true,开启
  92. #http.enabled: false
  93. ################################### Gateway ###################################
  94. # gateway的类型,默认为local即为本地文件系统,可以设置为本地文件系统
  95. #gateway.type: local
  96. # 下面的配置控制怎样以及何时启动一整个集群重启的初始化恢复过程
  97. # (当使用shard gateway时,是为了尽可能的重用local data(本地数据))
  98. # 一个集群中的N个节点启动后,才允许进行恢复处理
  99. #gateway.recover_after_nodes: 1
  100. # 设置初始化恢复过程的超时时间,超时时间从上一个配置中配置的N个节点启动后算起
  101. #gateway.recover_after_time: 5m
  102. # 设置这个集群中期望有多少个节点.一旦这N个节点启动(并且recover_after_nodes也符合),
  103. # 立即开始恢复过程(不等待recover_after_time超时)
  104. #gateway.expected_nodes: 2
  105. ############################# Recovery Throttling #############################
  106. # 下面这些配置允许在初始化恢复,副本分配,再平衡,或者添加和删除节点时控制节点间的分片分配
  107. # 设置一个节点的并行恢复数
  108. # 1.初始化数据恢复时,并发恢复线程的个数,默认为4
  109. #cluster.routing.allocation.node_initial_primaries_recoveries: 4
  110. #
  111. # 2.添加删除节点或负载均衡时并发恢复线程的个数,默认为2
  112. #cluster.routing.allocation.node_concurrent_recoveries: 2
  113. # 设置恢复时的吞吐量(例如:100mb,默认为0无限制.如果机器还有其他业务在跑的话还是限制一下的好)
  114. #indices.recovery.max_bytes_per_sec: 20mb
  115. # 设置来限制从其它分片恢复数据时最大同时打开并发流的个数,默认为5
  116. #indices.recovery.concurrent_streams: 5
  117. # 注意: 合理的设置以上参数能有效的提高集群节点的数据恢复以及初始化速度
  118. ################################## Discovery ##################################
  119. # 设置这个参数来保证集群中的节点可以知道其它N个有master资格的节点.默认为1,对于大的集群来说,可以设置大一点的值(2-4)
  120. #discovery.zen.minimum_master_nodes: 1
  121. # 探查的超时时间,默认3秒,提高一点以应对网络不好的时候,防止脑裂
  122. #discovery.zen.ping.timeout: 3s
  123. # For more information, see
  124. # <http://elasticsearch.org/guide/en/elasticsearch/reference/current/modules-discovery-zen.html>
  125. # 设置是否打开多播发现节点.默认是true.
  126. # 当多播不可用或者集群跨网段的时候集群通信还是用单播吧
  127. #discovery.zen.ping.multicast.enabled: false
  128. # 这是一个集群中的主节点的初始列表,当节点(主节点或者数据节点)启动时使用这个列表进行探测
  129. #discovery.zen.ping.unicast.hosts: ["host1", "host2:port"]
  130. # Slow Log部分与GC log部分略,不过可以通过相关日志优化搜索查询速度
  131. ############## Memory(重点需要调优的部分) ################
  132. # Cache部分:
  133. # es有很多种方式来缓存其内部与索引有关的数据.其中包括filter cache
  134. # filter cache部分:
  135. # filter cache是用来缓存filters的结果的.默认的cache type是node type.node type的机制是所有的索引内部的分片共享filter cache.node type采用的方式是LRU方式.即:当缓存达到了某个临界值之后,es会将最近没有使用的数据清除出filter cache.使让新的数据进入es.
  136. # 这个临界值的设置方法如下:indices.cache.filter.size 值类型:eg.:512mb 20%。默认的值是10%。
  137. # out of memory错误避免过于频繁的查询时集群假死
  138. # 1.设置es的缓存类型为Soft Reference,它的主要特点是据有较强的引用功能.只有当内存不够的时候,才进行回收这类内存,因此在内存足够的时候,它们通常不被回收.另外,这些引用对象还能保证在Java抛出OutOfMemory异常之前,被设置为null.它可以用于实现一些常用图片的缓存,实现Cache的功能,保证最大限度的使用内存而不引起OutOfMemory.在es的配置文件加上index.cache.field.type: soft即可.
  139. # 2.设置es最大缓存数据条数和缓存失效时间,通过设置index.cache.field.max_size: 50000来把缓存field的最大值设置为50000,设置index.cache.field.expire: 10m把过期时间设置成10分钟.
  140. #index.cache.field.max_size: 50000
  141. #index.cache.field.expire: 10m
  142. #index.cache.field.type: soft
  143. # field data部分&&circuit breaker部分:
  144. # 用于field data 缓存的内存数量,主要用于当使用排序,faceting操作时,elasticsearch会将一些热点数据加载到内存中来提供给客户端访问,但是这种缓存是比较珍贵的,所以对它进行合理的设置.
  145. # 可以使用值:eg:50mb 或者 30%(节点 node heap内存量),默认是:unbounded
  146. #indices.fielddata.cache.size: unbounded
  147. # field的超时时间.默认是-1,可以设置的值类型: 5m
  148. #indices.fielddata.cache.expire: -1
  149. # circuit breaker部分:
  150. # 断路器是elasticsearch为了防止内存溢出的一种操作,每一种circuit breaker都可以指定一个内存界限触发此操作,这种circuit breaker的设定有一个最高级别的设定:indices.breaker.total.limit 默认值是JVM heap的70%.当内存达到这个数量的时候会触发内存回收
  151. # 另外还有两组子设置:
  152. #indices.breaker.fielddata.limit:当系统发现fielddata的数量达到一定数量时会触发内存回收.默认值是JVM heap的70%
  153. #indices.breaker.fielddata.overhead:在系统要加载fielddata时会进行预先估计,当系统发现要加载进内存的值超过limit * overhead时会进行进行内存回收.默认是1.03
  154. #indices.breaker.request.limit:这种断路器是elasticsearch为了防止OOM(内存溢出),在每次请求数据时设定了一个固定的内存数量.默认值是40%
  155. #indices.breaker.request.overhead:同上,也是elasticsearch在发送请求时设定的一个预估系数,用来防止内存溢出.默认值是1
  156. # Translog部分:
  157. # 每一个分片(shard)都有一个transaction log或者是与它有关的预写日志,(write log),在es进行索引(index)或者删除(delete)操作时会将没有提交的数据记录在translog之中,当进行flush 操作的时候会将tranlog中的数据发送给Lucene进行相关的操作.一次flush操作的发生基于如下的几个配置
  158. #index.translog.flush_threshold_ops:当发生多少次操作时进行一次flush.默认是 unlimited
  159. #index.translog.flush_threshold_size:当translog的大小达到此值时会进行一次flush操作.默认是512mb
  160. #index.translog.flush_threshold_period:在指定的时间间隔内如果没有进行flush操作,会进行一次强制flush操作.默认是30m
  161. #index.translog.interval:多少时间间隔内会检查一次translog,来进行一次flush操作.es会随机的在这个值到这个值的2倍大小之间进行一次操作,默认是5s
  162. #index.gateway.local.sync:多少时间进行一次的写磁盘操作,默认是5s
  163. # 以上的translog配置都可以通过API进行动态的设置

如何动态的加入结点

上边我们已经部署了三个结点的es集群,加入现在我们要另外加入一个data node,我们该怎么办?

1:copy 一个elasticsearch文件夹,作为第四个结点

sudo cp -r elasticsearch-5.2.1_2 elasticsearch-5.2.1_4

2:修改es4 中的yaml文件

  1. cluster.name: es5
  2. node.name: node-4
  3. network.host: 0.0.0.0
  4. http.port: 9203
  5. transport.tcp.port: 9303
  6. node.master: false
  7. node.data: true
  8. discovery.zen.ping.unicast.hosts: ["0.0.0.0:9300", "0.0.0.0:9301", "0.0.0.0:9302", "0.0.0.0:9302"]
  9. discovery.zen.minimum_master_nodes: 1
  10. gateway.recover_after_nodes: 2
  11. gateway.recover_after_time: 5m
  12. gateway.expected_nodes: 1
  13. script.engine.groovy.inline.search: on
  14. script.engine.groovy.inline.aggs: on
  15. indices.recovery.max_bytes_per_sec: 20mb

3:修改另外三个结点的yaml文件

修改discovery.zen.ping.unicast.hosts: 配置项为:

  1. discovery.zen.ping.unicast.hosts: ["0.0.0.0:9300", "0.0.0.0:9301", "0.0.0.0:9302", "0.0.0.0:9302"]

4:重启es集群

前三个结点启动完毕,启动第四个结点时报错如下:

  1. Java HotSpot(TM) 64-Bit Server VM warning: INFO: os::commit_memory(0x000000008a660000, 1973026816, 0) failed; error='Cannot allocate memory' (errno=12)
  2. #
  3. # There is insufficient memory for the Java Runtime Environment to continue.
  4. # Native memory allocation (mmap) failed to map 1973026816 bytes for committing reserved memory.
  5. # An error report file with more information is saved as:
  6. # /tmp/hs_err_pid9963.log

这个错误的意思是JVM运行内存不足,解决办法是增加虚拟机内存,同时删除es4目录下data目录下的数据
然后重启elasticsearch集群,重启logstash:

es集群

欧了,到这里灵活的添加结点我们也完成了


ES集群的监控

网上查看资料相应的插件有

  1. bigdeskhttps://github.com/hlstudio/bigdesk
  2. paramedichttps://github.com/karmi/elasticsearch-paramedic
  3. kopfhttps://github.com/lmenezes/elasticsearch-kopf

由于大部分插件只支持es2.x,所以这里采用bigdesk

1:下载

  1. git clone https://github.com/hlstudio/bigdesk.git

2:进入该目录,在浏览器中打开index.html

效果图如下,可以进行刷新时间设置,查看不同结点情况

bigdesk

结束

吾之初心,永世不忘

“请问祖安怎么走?” “顺着这条金属小道,一直走就是了。” “请问诺克萨斯怎么走?” “沿着这条沾满鲜血的道路,一直走就是了。” “请问德玛西亚怎么走?” “德玛西亚,没有走的方法,德玛西亚就在你心里,如果你有一颗德玛西亚人的心,有草丛的地方,就是德玛西亚了。”

发表评论

表情:
评论列表 (有 0 条评论,226人围观)

还没有评论,来说两句吧...

相关阅读