关于elasticsearch:ElasticSearch-ILM试玩

6次阅读

共计 1535 个字符,预计需要花费 4 分钟才能阅读完成。

ElasticSearch ILM 试玩

创立一个生命周期管理策略

官网给的例子

PUT _ilm/policy/datastream_policy   
{
  "policy": {                       
    "phases": {
      "hot": {                      
        "actions": {
          "rollover": {             
            "max_size": "50GB",
            "max_age": "30d"
          }
        }
      },
      "delete": {
        "min_age": "90d",           
        "actions": {"delete": {}              
        }
      }
    }
  }
}

本人轻易造一个,齐全能够在 Kibana 界面上实现操作~

GET _ilm/policy

{
  "ljktest_policy" : {
    "version" : 1,
    "modified_date" : "2020-08-17T04:41:55.293Z",
    "policy" : {
      "phases" : {
        "hot" : {
          "min_age" : "0ms",
          "actions" : {
            "rollover" : {
              "max_size" : "1mb",
              "max_age" : "1h",
              "max_docs" : 1
            }
          }
        },
        "delete" : {
          "min_age" : "4h",
          "actions" : {"delete" : {}
          }
        }
      }
    }
  }
}

创立一个带有策略的索引正本

官网示例

PUT _template/datastream_template
{"index_patterns": ["datastream-*"],                 
  "settings": {
    "number_of_shards": 1,
    "number_of_replicas": 1,
    "index.lifecycle.name": "datastream_policy",      
    "index.lifecycle.rollover_alias": "datastream"    
  }
}

本人造一个

GET _template/ljktest_template

{
  "ljktest_policy" : {
    "version" : 1,
    "modified_date" : "2020-08-17T04:41:55.293Z",
    "policy" : {
      "phases" : {
        "hot" : {
          "min_age" : "0ms",
          "actions" : {
            "rollover" : {
              "max_size" : "1mb",
              "max_age" : "1h",
              "max_docs" : 1
            }
          }
        },
        "delete" : {
          "min_age" : "4h",
          "actions" : {"delete" : {}
          }
        }
      }
    }
  }
}

写入索引文档测试

PUT ljktest-000001
{
  "aliases": {
    "ljktest": {"is_write_index": true}
  }
}

POST ljktest/origin
{"name":"ljktest004"}

测试的一些问题纳闷

  1. 设置的是 1 个文档就 rollover,间断放入了好几个文档,也不会生成新的 index。比方 ljktest-000001 曾经有 7 个文档了。前面我也不懂它依据什么规定生成了一个 ljktest-000002 的索引。
  2. 这种场景在应答 ID 不确定,也就是 log 日志文件,不错。然而当我的数据须要一直迭代更新的场景,然而又想依据某个工夫字段删除掉 90 天后的数据,这种 ILM 的策略貌似不能满足啊。比方以下的两笔数据会让接口同时查问到,这种就不太正当~
 {
        "_index" : "ljktest-000001",
        "_type" : "origin",
        "_id" : "001",
        "_score" : 1.0,
        "_source" : {"name" : "ljktest006"}
      },
      {
        "_index" : "ljktest-000002",
        "_type" : "origin",
        "_id" : "001",
        "_score" : 1.0,
        "_source" : {"name" : "ljktest006"}
      },
正文完
 0