开源我的项目地址:
我的项目地址: https://github.com/ning1875/stree-index
什么是服务树及其外围性能
服务树效果图
能够看我之前写的文章 服务树系列(一):什么是服务树及其外围性能
外围性能有三个
- 树级构造
- 灵便的资源查问
- 权限相干
明天仅探讨前两种的实现
树级构造实现
调研后发现有下列几种实现形式
- 左右值编码
- 区间嵌套
- 闭包表
- 物化门路
而stree-index
采纳的是物化门路
物化门路
原理
在创立节点时,将节点的残缺门路进行记录,计划借助了unix文件目录的思维,次要时以空间换工夫
+-----+-------+------------+-------------------------+
| id | level | path | node_name |
+-----+-------+------------+-------------------------+
| 84 | 3 | /1/18/84 | ads-schedule |
| 213 | 3 | /1/212/213 | share |
| 317 | 3 | /1/212/317 | ssr |
| 320 | 3 | /1/212/320 | prod |
| 475 | 3 | /1/212/475 | share-server-plus |
| 366 | 3 | /1/365/366 | minivideo |
| 368 | 3 | /1/365/368 | userinfo |
+-----+-------+------------+-------------------------+
实现阐明
- 接口代码在
E:\go_path\src\stree-index\pkg\web\controller\node-path\path_controller.go
中 - level 字段代表层级 eg: a.b.c 对应的level别离为2.3.4
- path 门路 path最初的字段为其id值,上一级为其父节点id值
- node_name 叶子节点name
+-----------+--------------+------+-----+---------+----------------+
| Field | Type | Null | Key | Default | Extra |
+-----------+--------------+------+-----+---------+----------------+
| id | int(11) | NO | PRI | NULL | auto_increment |
| level | tinyint(4) | NO | MUL | NULL | |
| path | varchar(200) | YES | | NULL | |
| node_name | varchar(200) | YES | | NULL | |
+-----------+--------------+------+-----+---------+----------------+
减少节点
- 只须要判断传入的g.p.a各层级是否存在并增加即可
- 为了防止过多查问,我这里应用getall后变更。TODO 改为事务型
删除节点 大体同减少
查问节点
须要分两种状况
- 查问下一级子节点 即 依据获取g下gp列表
def get_gp():
"""
:return: 返回申请的子节点
t = ['hawkeye', 'stree', 'gateway']
"""
data = {"node": "sgt", "level": 2, "max_dep": 1}
tree_uri = '{}/query/node-path'.format(base_url)
res = requests.get(tree_uri, params=data)
print(res.json())
- 查问所有子孙节点
def get_node():
"""
:return: 返回申请的子节点
t = ['sgt.hawkeye.m3coordinator',
'sgt.hawkeye.etcd',
'sgt.hawkeye.collecter',
'sgt.hawkeye.rule-eval',
'sgt.hawkeye.query',
'sgt.hawkeye.m3db',
'sgt.stree.index',
]
"""
data = {"node": "sgt", "level": 2}
tree_uri = '{}/node-path'.format(base_url)
res = requests.get(tree_uri, params=data)
print(res.json())
外围查问
如何满足灵便且高效的查问
惯例思路拼 sql查问
比方:查问 G.P.A=a.hawkeye.etcd的ecs资源
拼出的sql相似
select * from ecs where group="a" and product="hawkeye" and app="etcd"
同时mysql也满足上面5中查问条件
- eq 等于 : key=value
- not_eq 不等于 : key!=value
- reg 正则匹配 : key=~value
- not_reg 正则非匹配 : key!~value
- 比照 : key> value
弊病
- 须要拼接的sql中每个条件是table 的字段
- 当然常常变动的字段能够存json字段应用
tags->'$."stree-project"'='hawkeye'
- 性能问题:单表字段过多导致的查问问题
- 不能间接给出散布状况,只能再叠加count
更好的办法是应用倒排索引缓存记录
什么是倒排索引
简略来说依据id查问记录叫索引,反过来依据tag匹配查找id就是倒排索引
具体实现
- 外围构造MemPostings是一个双层map ,把tag=value 的记录依照tag作为第一层map的key, value作为内层map的key 内存map值为对应id set
type MemPostings struct {
mtx sync.RWMutex
m map[string]map[string][]uint64
ordered bool
}
- 同时为了
反向匹配
和统计需要
须要保护 values 和symbols
type HeadIndexReader struct {
postings *index.MemPostings
values map[string]stringset
symbols map[string]struct{}
symMtx sync.RWMutex
}
- 将db的记录每条记录依照tag和id的对应关系构建索引
- 最内层set存储的是db 记录的主键id
- 这样就可能依据一组标签查问到主键id再去db中获取全量信息即可
- 这样查问速度是最快的
- db中所有的字段出timestamp外都能够用来构建索引,而后能所有的字段都能够被用作查问条件
举例
req_data = {
'resource_type': 'elb',
'use_index': True,
'labels': [
# 查问 group 不等于CBS,name ,正则匹配.*0dff.*,stree-app等于collecter的elb资源列表
{'key': 'group', 'value': 'CBS', 'type': 2},
{'key': 'name', 'value': '.*0dff.*', 'type': 3},
{'key': 'stree-app', 'value': 'collecter', 'type': 1}]
}
按key查问散布状况的实现
- 匹配过程和上述统一
- 再用构建一个堆就能够失去散布状况
举例:依据kv组合查问 某一个key的散布状况
eg: 查问 G.P.A=SGT.hawkeye.m3db 的ecs资源按cluster标签散布状况
def query_dis():
"""
:return:
返回的是条件查问后依照指标label的散布状况
dis = {
'group': [
{'name': 'business', 'value': 9},
{'name': 'inf', 'value': 9},
{'name': 'middleware', 'value': 9},
{'name': 'bigdata', 'value': 9}
]
}
"""
req_data = {
'resource_type': 'ecs',
'use_index': True,
'labels': [
# 查问 G.P.A=SGT.hawkeye.m3db 的ecs资源按cluster标签散布状况
{'key': 'group', 'value': 'SGT', 'type': 1},
{'key': 'stree-project', 'value': 'hawkeye', 'type': 1},
{'key': 'stree-app', 'value': 'm3db', 'type': 1}],
'target_label': 'cluster'
}
query_uri = "{}/query/resource-distribution".format(base_url)
res = requests.post(query_uri, json=req_data)
print(res.json())
应用
创立表
依据scripts/db_schema.sql 建表
资源数据表
- ecs 云服务器
- elb 云负载均衡器
- rds 云关系型数据库
- dcs 云缓存
- 对应表名为
service_tree_ecs
service_tree_elb
service_tree_rds
service_tree_dcs
ecs 云服务器规格表 service_tree_cloud_instance_type
树结构path表
灌入数据
- 资源数据能够由同步得来,自行实现即可
-
各个资源表中数据tags字段为json类型,切必须蕴含stree-index.yml的服务树tag
# g.p.a模型key对应table中json字段名称 tree_info: name_g: group name_p: stree-project name_a: stree-app
- ecs 云服务器规格表 能够由
scripts/instance_type_insert.sh
灌入,其中蕴含华为和aws的大部分规格数据
装置stree-index
git clone https://github.com/ning1875/stree-index.git
cd dynamic-sharding/pkg/ && go build -o stree-index main.go
补充stree-index.yml 中db,redis等信息
启动服务
./stree-index --config.file=stree-index.yml
stree-index会主动依据资源表中服务树tag构建服务树
查问path表应该有数据
select * from service_tree_path_tree limit 20;
应用stree-index
查问接口数据结构
{
"resource_type":"ecs",
"use_index":true,
"labels":[
{
"key":"group",
"value":"sgt",
"type":1
}],
'target_label': 'cluster' # 查问散布时才须要
}
查问资源返回数据结构
{
'code': 0,
'current_page': 2, # 以后分页
'page_size': 10, # 每页limit
'page_count': 0, # 页数
'total_count': 0, # 总数
'result': [] # 为合乎查问条件的资源列表
}
查问数据分页参数,传在path外面
- page_size 代表每页数量,默认10
- current_page 代表以后分页num,默认1
- get_all 等于1时代表不分页获取符合条件的全副数据,默认0
查问资源类型:对应字段 resource_type
目前反对的类型如下
- ecs 云服务器
- elb 云负载均衡器
- rds 云关系型数据库
- dcs 云缓存
查问条件反对:对应字段 labels中的type字段
- 1:eq 等于 : key=value
- 2:not_eq 不等于 : key!=value
- 3:reg 正则匹配 : key=~value
- 4:not_reg 正则非匹配 : key!~value
– 比照 : key> value
查问条件自由组合
labels
可传入多个key和value组合,可自由组合不同kv查问
运维stree-index
监控
stree-index 会打点,应用prometheus采集查看即可
- job_name: stree
honor_labels: true
honor_timestamps: true
scrape_interval: 60s
scrape_timeout: 4s
metrics_path: /metrics
scheme: http
static_configs:
- targets:
- $stree-index:9393
发表回复