先自上而下,后自底向上的介绍ElasticSearch的底层工作原理,试图答复以下问题:
- 为什么我的搜寻
*foo-bar*
无奈匹配foo-bar
? - 为什么减少更多的文件会压缩索引(Index)?
- 为什么ElasticSearch占用很多内存?
版本
elasticsearch版本: elasticsearch-2.2.0
云上的集群
集群里的盒子
云外面的每个红色正方形的盒子代表一个节点——Node。
节点之间
在一个或者多个节点间接,多个绿色小方块组合在一起造成一个ElasticSearch的索引。
索引里的小方块
在一个索引下,散布在多个节点里的绿色小方块称为分片——Shard。
Shard=Lucene Index
一个ElasticSearch的Shard实质上是一个Lucene Index。这篇 ElasticSearch 具体应用教程,外部分享时被老大褒扬了
Lucene是一个Full Text 搜寻库(也有很多其余模式的搜寻库),ElasticSearch是建设在Lucene之上的。接下来的故事要说的大部分内容实际上是ElasticSearch如何基于Lucene工作的。超具体 116 页 Elasticsearch 实战文档!高清可下载
图解Lucene
Mini索引——segment
在Lucene外面有很多小的segment,咱们能够把它们看成Lucene外部的mini-index。
Segment外部
有着许多数据结构
- Inverted Index
- Stored Fields
- Document Values
- Cache
最最重要的Inverted Index
Inverted Index次要包含两局部:
- 一个有序的数据字典Dictionary(包含单词Term和它呈现的频率)。
- 与单词Term对应的Postings(即存在这个单词的文件)。
当咱们搜寻的时候,首先将搜寻的内容合成,而后在字典里找到对应Term,从而查找到与搜寻相干的文件内容。Elasticsearch 查问数据的工作原理是什么?
查问“the fury”
主动补全(AutoCompletion-Prefix)
如果想要查找以字母“c”结尾的字母,能够简略的通过二分查找(Binary Search)在Inverted Index表中找到例如“choice”、“coming”这样的词(Term)。ElasticSearch 亿级数据检索案例实战!
低廉的查找
如果想要查找所有蕴含“our”字母的单词,那么零碎会扫描整个Inverted Index,这是十分低廉的。
在此种状况下,如果想要做优化,那么咱们面对的问题是如何生成适合的Term。
问题的转化
对于以上诸如此类的问题,咱们可能会有几种可行的解决方案:
* suffix -> xiffus *
如果咱们想当前缀作为搜寻条件,能够为Term做反向解决。
(60.6384, 6.5017) -> u4u8gyykk
对于GEO地位信息,能够将它转换为GEO Hash。
123 -> {1-hundreds, 12-tens, 123}
对于简略的数字,能够为它生成多重模式的Term。
解决拼写错误
一个Python库 为单词生成了一个蕴含谬误拼写信息的树形状态机,解决拼写错误的问题。
Stored Field字段查找
当咱们想要查找蕴含某个特定题目内容的文件时,Inverted Index就不能很好的解决这个问题,所以Lucene提供了另外一种数据结构Stored Fields来解决这个问题。实质上,Stored Fields是一个简略的键值对key-value。默认状况下,ElasticSearch会存储整个文件的JSON source。
Document Values为了排序,聚合
即便这样,咱们发现以上构造依然无奈解决诸如:排序、聚合、facet,因为咱们可能会要读取大量不须要的信息。
所以,另一种数据结构解决了此种问题:Document Values。这种构造实质上就是一个列式的存储,它高度优化了具备雷同类型的数据的存储构造。
为了提高效率,ElasticSearch能够将索引下某一个Document Value全副读取到内存中进行操作,这大大晋升访问速度,然而也同时会消耗掉大量的内存空间。
总之,这些数据结构Inverted Index、Stored Fields、Document Values及其缓存,都在segment外部。
搜寻产生时
搜寻时,Lucene会搜寻所有的segment而后将每个segment的搜寻后果返回,最初合并出现给客户。
Lucene的一些个性使得这个过程十分重要:
- Segments是不可变的(immutable)
- Delete? 当删除产生时,Lucene做的只是将其标记地位为删除,然而文件还是会在它原来的中央,不会产生扭转
- Update? 所以对于更新来说,实质上它做的工作是:先删除,而后从新索引(Re-index)
- 随处可见的压缩
- Lucene十分善于压缩数据,基本上所有教科书上的压缩形式,都能在Lucene中找到。
- 缓存所有的所有
- Lucene也会将所有的信息做缓存,这大大提高了它的查问效率。
缓存的故事
当ElasticSearch索引一个文件的时候,会为文件建设相应的缓存,并且会定期(每秒)刷新这些数据,而后这些文件就能够被搜寻到。
随着工夫的减少,咱们会有很多segments,
所以ElasticSearch会将这些segment合并,在这个过程中,segment会最终被删除掉
这就是为什么减少文件可能会使索引所占空间变小,它会引起merge,从而可能会有更多的压缩。
举个栗子
有两个segment将会merge
这两个segment最终会被删除,而后合并成一个新的segment
这时这个新的segment在缓存中处于cold状态,然而大多数segment依然放弃不变,处于warm状态。
以上场景常常在Lucene Index外部产生的。
在Shard中搜寻
ElasticSearch从Shard中搜寻的过程与Lucene Segment中搜寻的过程相似。
与在Lucene Segment中搜寻不同的是,Shard可能是散布在不同Node上的,所以在搜寻与返回后果时,所有的信息都会通过网络传输。
须要留神的是:
1次搜寻查找2个shard = 2次别离搜寻shard
对于日志文件的解决
当咱们想搜寻特定日期产生的日志时,通过依据工夫戳对日志文件进行分块与索引,会极大进步搜寻效率。
当咱们想要删除旧的数据时也十分不便,只需删除老的索引即可。
在上种状况下,每个index有两个shards
如何Scale
shard不会进行更进一步的拆分,然而shard可能会被转移到不同节点上
所以,如果当集群节点压力增长到肯定的水平,咱们可能会思考减少新的节点,这就会要求咱们对所有数据进行从新索引,这是咱们不太心愿看到的,所以咱们须要在布局的时候就思考分明,如何去均衡足够多的节点与有余节点之间的关系。
节点调配与Shard优化
- 为更重要的数据索引节点,调配性能更好的机器
- 确保每个shard都有正本信息replica
路由Routing
每个节点,每个都存留一份路由表,所以当申请到任何一个节点时,ElasticSearch都有能力将申请转发到冀望节点的shard进一步解决。
一个实在的申请
Query
Query有一个类型filtered,以及一个multi\_match的查问
Aggregation
依据作者进行聚合,失去top10的hits的top10作者的信息
申请散发
这个申请可能被散发到集群里的任意一个节点
上帝节点
这时这个节点就成为以后申请的协调者(Coordinator),它决定:
- 依据索引信息,判断申请会被路由到哪个外围节点
- 以及哪个正本是可用的
- 等等
路由
在实在搜寻之前
ElasticSearch 会将Query转换成Lucene Query
而后在所有的segment中执行计算
对于Filter条件自身也会有缓存
但queries不会被缓存,所以如果雷同的Query反复执行,应用程序本人须要做缓存
所以,
- filters能够在任何时候应用
- query只有在须要score的时候才应用
返回
搜寻完结之后,后果会沿着上行的门路向上逐层返回。
起源:https://www.cnblogs.com/richa...