之前在搞宜搭元数据底层索引优化的时候,针对一些查问时快时慢,以及一些索引抉择的问题,钻研过,也基于看过的一些案例以及本身演绎思考,上面整顿分享下;
个别咱们为了放慢查问速度,会设计索引,当然有索引状况下,大多是会命中去走索引查问;然而呢:
- 存储优化器去执行,就算加了索引,在肯定时候有可能没用到索引,速度会更慢点,这是为什么不必?
- 有些时候同一个用户不同工夫去申请,产生雷同SQL语句去查问也可能呈现不同的快慢性能,这又是为什么?
- 就算命中了索引,速度可能更慢,这最初又是为什么?
先举几个之前晓得的例子加以分析;
案例一
-- 创立测试表CREATE TABLE `t` ( `id` int primary key auto_increment, `a` int default null, `b` int default null, KEY `a` (`a`), KEY `b` (`b`)) ENGINE=InnoDB;-- 插入10w行测试数据delimiter ;;create procedure idata()begin declare i int; set i=1; while(i<=100000)do insert into t values(i, i, i); set i=i+1; end while;end;;delimiter ;call idata();
mysql全表扫描
explain select from t where a between 10000 and 20000;
通过explain的执行后果咱们能够看出,下面的SQL语句并没有走咱们的索引a,而是间接应用了全表扫描。
-- 强制走索引a explain select from t force index(a) where a between 10000 and 20000;
通过explain的执行后果咱们能够看出,下面的SQL语句咱们通过force index(a)当前,的确应用了索引。
-- 开启慢日志 set global slow_query_log = true; set long_query_time = 0; -- 别离执行不走索引和走索引的SQL select from t where a between 10000 and 20000; select from t force index(a) where a between 10000 and 20000;
能够看出走索引的查问比不走索引的查问快了将近10ms。
然而存储优化器默认没走索引的查问,尽管加了索引
案例二
针对某个平台有张音讯发送交换的表,规模达到数千万行级,PG存储;音讯表上的主查问通常极快,然而也遇到了一些间歇的慢查问超时。慢查问岂但影响了音讯性能的用户体验,而且加大了整个零碎的负荷,拖慢了其余性能的用户体验。
这个查问长这样:
SELECT messages.* FROM messages WHERE messages.deleted_at IS NULL AND messages.namespace = ? AND ( jsonb_extract_path_text(context, 'topic') IN (?, ?) OR jsonb_extract_path_text(context, 'topic') LIKE ? ) AND ( context @> '{"involved_parties":[{"id":1,"type":1}]}'::jsonb ) ORDER BY messages.created_at ASC
在context上有两个索引
- context列上的GIN索引
- jsonb_extract_path_text(context, ‘topic’)表达式上的BTREE表达式索引
看下下面语句偶然慢的时候QUERY PLAN:
UERY PLAN------------------------------------------------------------------------------ Sort (cost=540.08..540.09 rows=3 width=915) Sort Key: created_at -> Bitmap Heap Scan on messages (cost=536.03..540.06 rows=3 width=915) Recheck Cond: (((jsonb_extract_path_text(context, VARIADIC '{topic}'::text[]) = ANY ('{?,?}'::text[])) OR (jsonb_extract_path_text(context, VARIADIC '{topic}'::text[]) ~~ '?%'::text)) AND (context @> '{"involved_parties": [{"id": 1, "type": 1}]}'::jsonb)) Filter: ((deleted_at IS NULL) AND ((namespace)::text = '?'::text) AND ((jsonb_extract_path_text(context, VARIADIC '{topic}'::text[]) = ANY ('{?,?}'::text[])) OR (jsonb_extract_path_text(context, VARIADIC '{topic}'::text[]) ~~ '?%'::text))) -> BitmapAnd (cost=536.03..536.03 rows=1 width=0) -> BitmapOr (cost=20.13..20.13 rows=249 width=0) -> Bitmap Index Scan on index_messages_on_topic_key_string (cost=0.00..15.55 rows=249 width=0) Index Cond: (jsonb_extract_path_text(context, VARIADIC '{topic}'::text[]) = ANY ('{?,?}'::text[])) -> Bitmap Index Scan on index_messages_on_topic_key_string (cost=0.00..4.57 rows=1 width=0) Index Cond: ((jsonb_extract_path_text(context, VARIADIC '{topic}'::text[]) ~>=~ '?'::text) AND (jsonb_extract_path_text(context, VARIADIC '{topic}'::text[]) ~<~ '?'::text)) -> Bitmap Index Scan on index_messages_on_context (cost=0.00..515.65 rows=29820 width=0) Index Cond: (context @> '{"involved_parties": [{"id": 1, "type": 1}]}'::jsonb)(这个查问打算来自EXPLAIN,因为EXPLAIN ANALYZE超时)
看下下面语句快的时候QUERY PLAN:
QUERY PLAN------------------------------------------------------------------------------ Sort (cost=667.75..667.76 rows=3 width=911) (actual time=0.093..0.094 rows=7 loops=1) Sort Key: created_at Sort Method: quicksort Memory: 35kB -> Bitmap Heap Scan on messages (cost=14.93..667.73 rows=3 width=911) (actual time=0.054..0.077 rows=7 loops=1) Recheck Cond: ((jsonb_extract_path_text(context, VARIADIC '{topic}'::text[]) = ANY ('{?,?}'::text[])) OR (jsonb_extract_path_text(context, VARIADIC '{topic}'::text[]) ~~ '?%'::text)) Filter: ((deleted_at IS NULL) AND (context @> '{"involved_parties": [{"id": 1, "type": 1}]}'::jsonb) AND ((namespace)::text = '?'::text) AND ((jsonb_extract_path_text(context, VARIADIC '{topic}'::text[]) = ANY ('{?,?}'::text[])) OR (jsonb_extract_path_text(context, VARIADIC '{topic}'::text[]) ~~ '?%'::text))) Heap Blocks: exact=7 -> BitmapOr (cost=14.93..14.93 rows=163 width=0) (actual time=0.037..0.037 rows=0 loops=1) -> Bitmap Index Scan on index_messages_on_topic_key_string (cost=0.00..10.36 rows=163 width=0) (actual time=0.029..0.029 rows=4 loops=1) Index Cond: (jsonb_extract_path_text(context, VARIADIC '{topic}'::text[]) = ANY ('{?,?}'::text[])) -> Bitmap Index Scan on index_messages_on_topic_key_string (cost=0.00..4.57 rows=1 width=0) (actual time=0.007..0.007 rows=7 loops=1) Index Cond: ((jsonb_extract_path_text(context, VARIADIC '{topic}'::text[]) ~>=~ '?'::text) AND (jsonb_extract_path_text(context, VARIADIC '{topic}'::text[]) ~<~ '?'::text)) Planning time: 0.313 ms Execution time: 0.138 ms
图中执行打算能够看出,(context @> '{"involved_parties": [{"id": 1, "type": 1}]}'::jsonb) 没走索引更快,走了索引还更慢; 而且同一个SQL查问,有些时候走索引,有些时候又不走;
案例剖析
这里针对案例二进行剖析:
理解下索引区别
GIN是PostgreSQL提供的一款用于简单值的索引引擎,个别用于数组、JSON或文本等的数据结构。GIN的设计用处是索引那些可对内部结构做细分的数据,这样就能够查找数据外部的子数据了。BTREE是PostgreSQL的默认索引引擎,能对简略值做相等性比拟或范畴查问。表达式索引是PostgreSQL提供的一种强力的索引类型,能对一个表达式(而不是一个列)做索引。JSONB类型个别只能用GIN这样的索引引擎,因为BTREE只反对标量类型(能够了解为“没有内部结构的简略值类型”)。因而,context列上的jsonb_extract_path_text(context, ‘topic’)表达式能够用BTREE索引,因为它返回字符串类型。不同于BTREE索引对立而统一的示意格局,GIN索引的内容能够因所用数据类型和操作符类型的不同而极为不同。而且思考到查问参数的抉择度有较高的多样性,GIN索引更实用于一些特定的查问,不像BTREE索引宽泛实用于相等性比拟和范畴查问。
预剖析
一个查问通常会先做索引扫描以初筛,再对筛选后的范畴做表扫描(一个特例是,当索引扫描足以笼罩所需的所有数据列时,则无需表扫描)。为了最大化性能,索引要有较好的抉择度来放大范畴,以缩小甚至防止之后的表扫描。条件context @> ‘{“involved_parties”:[{“id”:1,”type”:1}]}’::jsonb能应用context列上的GIN索引,然而这并不是一个好抉择,因为{“id”:1,”type”:1}这个值是存在于大多数行中的一个非凡值(这数字就很非凡,像管理员的号码)。因而,GIN索引对于这个条件的抉择度很差。实际上,这个查问中的其余条件已能提供很好的抉择度,所以永远不须要为这个条件应用索引。
针对快慢查问剖析
慢查问门路 快查问门路
如图可见,这个慢查问打算比快查问打算更简单。它多了一个”BitmapAnd”和一个扫描index 3的”Bitmap Index Scan”节点(index 3是context列上的GIN索引)。若index 3低效率,总体性能就会升高。
当老本预计精确时,查问打算器工作得很好。然而JSONB上的GIN索引的老本预计不是很精确的。由观测可见,它认为这个索引的抉择度为0.001(这是一个硬编码的固定值),也就是说它假如任何相干的查问都会抉择表中所有行的0.1%,但在咱们这个场景它理论会抉择90%的行,所以这个假如不成立。谬误的假如使查问打算器低估了慢查问打算的老本。尽管JSONB类型的列也有一些统计信息,但如同没有起到作用。
论断
所以说有些时命中索引不肯定就快,而且索引优化器也不肯定是精确的,可能会执行更慢;
一些有用的准则
准则1: 少即是多
治理好索引
更多的索引并不意味着更好的性能。事实上,每减少一个索引都会升高写操作的性能。如果查问打算器抉择了不高效的索引,那么查问依然会很慢。
不要沉积索引(例如每一列都建索引就是不可取的)。试着尽可能删除一些索引吧。而且每改变一个索引都要监控其对性能的影响。
优选简略的数据库设计
RDBMS(关系型数据库系统)中的数据个别都宜用范式化设计。JSON或JSONB则是NoSQL格调的反范式化设计。
范式化和反范式化哪个更好呢?从业务的角度,要具体情况具体分析。从RDBMS的角度,范式化总是更简略更好,而反范式化则能够在某些状况作为补充。
倡议1:思考从DDD(畛域驱动设计)的角度来设计数据模型。
- 实体总是能够建模为表,值对象总是能够嵌入保留在实体中(而有时为了性能,大型值对象也能够建模为表)。
- 某个关联的指标实体若为聚合根,就肯定不能嵌入保留在别处(而要自成一表)。但如果关联的指标实体不是聚合根,并且关联的源实体是自蕴含的聚合根,那么指标实体就能够被嵌入保留。
倡议2: 古代RDBMS中的可空列(nullable column)很高效,不必过于放心性能,如果多个可空列是对于可选属性(optional attribute)最扼要的建模形式,就不要犹豫了,更别把JSONB当作对可空列的“优化”形式。
准则2: 统计信息要精确
PostgreSQL保护每一张表的统计信息,包含而不限于元组数(tuple number),页数(page number),最常见的值(most common values),柱状图界线(histogram bounds)和不同值的个数(number of distinct values, 可能相当于集的基数set cardinality)。有一些统计信息是采样失去的而不够精确。查问打算器会对查问生成多个可能的打算,依据统计信息和规定来预计老本,再抉择最高效的那个打算。查问打算的品质取决于统计数据的准确性。精确的数据带来优良的执行(这也是数据迷信和数据驱动业务的一个好准则)。
正如所提到的,JSONB上的GIN的老本预计不是很精确的。而标量类型上的BTREE的老本预计则精确得多,但不是齐全筹备。因而JSONB不适宜某些状况。为了谋求效率,作为变通方法,能够对JSONB的某个标量类型属性建一个BTREE表达式索引。来自ScaleGrid的这片文章很好地介绍了怎么高效应用JSONB和GIN。
倡议:PostgreSQL有一些个性,如表达式索引和局部索引都是弱小而有老本效益的。只有基于数据分析认为有效益,都值得选用之。
准则3: 进步可察看性
无论咱们是否对问题的潜在根因有揣测,进步可察看性都是最好的做法。查问日志能证实导致慢申请的是慢查问,而不是利用程序代码或连贯期待。主动EXPLAIN能捕捉慢查问所用的实在的查问打算。
像Datadog这样的APM(应用程序性能治理)也是一个重要的工具。它能提供很多洞察:
- 这个问题是由资源有余所致吗?不,资源有余应平等影响任何SQL CRUD语句,但咱们只察看到慢的SELECT。
- 这个问题产生于每天的同一时间吗?不,它能产生于任何工夫。
每一次产生是独立事件吗?不,会在某个小的工夫窗汇集产生多个事件。那时肯定是产生了什么事才导致这个问题。
一些优化的措施
针对宜搭自身,一些可能有参考价值的优化措施,当然这里不波及缓存,次要讲存储层面的
宜搭作为钉钉上低代码开发平台,下面承载着上百万利用,实例数据总共达到几十亿规模;不同的利用会成长出不同的场景业务,不同的场景业务也会衍生出很多业务组件,比方单行文本组件,老本组件等; 这些组件对应存储会有很多不同的索引去减速查问;
这里优化措施大体有3类
调整SQL语句,使得之前特定组件没走索引,充沛走索引;比方上面gin语句的查问
针对一些特定组件的查问,优化了查问语句,使得充分利用索引,在数据量大时候查问更快;
正如下面案例说的,有了索引不肯定快,没索引可能更快,所以须要依据查问场景管制并判断;
优化前
QUERY PLAN---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- Limit (cost=4085.57..4086.38 rows=36 width=51) (actual time=100.118..100.121 rows=1 loops=1) -> Gather Motion 128:1 (slice1; segments: 128) (cost=4085.57..4086.38 rows=36 width=51) (actual time=100.111..100.111 rows=1 loops=1) Merge Key: gmt_create, pid -> Limit (cost=4085.57..4085.66 rows=1 width=51) (actual time=52.273..52.276 rows=1 loops=1) -> Sort (cost=4085.57..4085.66 rows=1 width=51) (actual time=52.271..52.273 rows=1 loops=1) Sort Key: gmt_create, pid Sort Method: top-N heapsort Memory: 4224kB -> Index Scan Backward using idx_app_type_table_name_gmt_create on yida_entity_instance a (cost=0.20..4084.66 rows=1 width=51) (actual time=0.361..52.258 rows=1 loops=1) Index Cond: (((app_type)::text = 'APP_GXUUGZJ1ZPPBIJKLE9BH'::text) AND ((model_uuid)::text = 'FORM-EX866CB1E6TV7F6SZME2YQA5IKWO1052BFOWKK'::text)) Filter: (is_deleted = 'n'::bpchar) AND (json_data -> 'employeeField_kw0b5hyf_code'::text) = '["050323"]'::jsonb) Planning time: 0.254 ms (slice0) Executor memory: 180K bytes. (slice1) Executor memory: 188K bytes avg x 128 workers, 188K bytes max (seg0). Work_mem: 33K bytes max. Memory used: 2047000kB Optimizer: Postgres query optimizer Execution time: 101.799 ms(16 rows)
优化后
QUERY PLAN--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- Limit (cost=5.55..6.36 rows=36 width=51) (actual time=28.342..28.344 rows=1 loops=1) -> Gather Motion 128:1 (slice1; segments: 128) (cost=5.55..6.36 rows=36 width=51) (actual time=28.339..28.339 rows=1 loops=1) Merge Key: gmt_create, pid -> Limit (cost=5.55..5.64 rows=1 width=51) (actual time=5.173..5.175 rows=1 loops=1) -> Sort (cost=5.55..5.64 rows=1 width=51) (actual time=5.171..5.173 rows=1 loops=1) Sort Key: gmt_create, pid Sort Method: top-N heapsort Memory: 4224kB -> Bitmap Heap Scan on yida_entity_instance a (cost=4.51..4.64 rows=1 width=51) (actual time=5.156..5.159 rows=1 loops=1) Recheck Cond: (json_data @> '{"employeeField_kw0b5hyf_code": ["050323"]}'::jsonb) Filter: ((is_deleted = 'n'::bpchar) AND ((app_type)::text = 'APP_GXUUGZJ1ZPPBIJKLE9BH'::text) AND ((model_uuid)::text ='FORM-EX866CB1E6TV7F6SZME2YQA5IKWO1052BFOWKK'::text)) -> Bitmap Index Scan on idx_json_data_path (cost=0.00..4.50 rows=1 width=0) (actual time=5.129..5.129 rows=4 loops=1) Index Cond: (json_data @> '{"employeeField_kw0b5hyf_code": ["050323"]}'::jsonb) Planning time: 0.345 ms (slice0) Executor memory: 157K bytes. (slice1) Executor memory: 495K bytes avg x 128 workers, 576K bytes max (seg31). Work_mem: 33K bytes max. Memory used: 2047000kB Optimizer: Postgres query optimizer Execution time: 30.130 ms(18 rows)
这里次要调整了查问SQL
把a.json_data->'employeeField_kw0b5hyf_code'='["050323"]' 换成json_data @> '{"employeeField_kw0b5hyf_code": ["050323"]}'::jsonb查问,充分利用gin jsonb_path_ops的索引(相比gin jsob_ops索引更高效);
当然下面在数据量略微大一点成果更显著,因为数据量太少会默认走表扫描,不走索引更快;
阐明 在JSONB上创立GIN索引的形式有两种:应用默认的jsonb_ops操作符创立和应用jsonb_path_ops操作符创立。两者的区别在jsonb_ops的GIN索引中,JSONB数据中的每个key和value都是作为一个独自的索引项的,而jsonb_path_ops则只为每个value创立一个索引项。
大家还记得最下面案例二吗? 下面调整后的SQL语句,如果是在案例二场景当中,调整后会更慢,所以须要具体场景具体分析;
针对存储优化器的查问效率状况,自行抉择最佳的扫描打算形式
正如下面案例说的,优化器也不肯定是精确的,所以有些时候须要咱们代码优化器自行抉择最佳的扫描打算形式
比如说:咱们查问场景中会有limit 1,limit 2,limit 5等这种查问语句,用limit来确保它在找到n个满足条件的行时就停下,而不必扫描整个表;
对于优化器来说,针对limit很小的数值,认为表扫描可能会更快,咱们有些利用数据量很大,这种场景如果走表扫描,不走索引,效率会更慢(取决于扫描行数来命中);这种状况咱们查问的时候,会针对性force index申请去强制走索引扫描打算,晋升速度;
后续针对每个SQL的代价效率统计,也能够主动抉择对应扫描打算,也算是对优化器针对业务场景不同下不同代价执行的一个补充;这个步骤能够了解叫“探查执行”,在宜搭专属大客户场景下,后续会基于这个进行“探查执行”,以达到大数据量下查问效率的最优解;
SQL Parse业务优化器,前置解决优化SQL查问
这里SQL Parse业务优化器,次要是针对咱们业务上不合理待优化的SQL,算是前置拦挡优化,与存储的还是有点区别;目标是优化器的补充,让存储更加专一于基于代价和老本的优化(CBO,cost based optimization)上,让优化器能更多的集中在了解计算进行执行打算优化这件事件上。
宜搭自身有很多业务性能,这些业务性能对接底层元数据引擎,来操作获取数据;业务上具体抉择AST数据操作参数来调用元数据引擎对立API;
元数据底层获取到对应的AST参数,解析后组装SQL,这里针对性生成的不合理SQL进行优化
- 没有利用标识,底层会兜底上下文去取,如果没有的话,会抛出不合理的异样,回绝不合理的SQL去查问,缩小查问范畴到具体利用层面;
- limit没传的,组装SQL会默认给个值;
- 针对select * 查问语法,默认解析成select字段
- 以及一些函数或者表达式的变换,比方日期函数大于等于值,命中不了索引,SQL优化;
- 数值介于查问,显著命中不了数据的,直接判断拦挡;
- 一些不合理多条件查问,合并
- ...
最近团队有一些hc,对元数据或者低代码平台感兴趣的来试试;java研发,数据研发,技术专家等都可,欢送来撩
简历发 edagarli.lz@alibaba-inc.com 或者微信私我hangzhoushoot
参考
Understanding Postgres GIN Indexes: The Good and the Bad
Postgres Planner not using GIN index Occasionally
Gitlab once faced a GIN related issue
Understanding Postgres query planner behaviour on GIN index
Statistics used by the query planner
When To Avoid JSONB In A PostgreSQL Schema
Using JSONB in PostgreSQL: How to Effectively Store & Index JSON Data in PostgreSQL
https://zhuanlan.zhihu.com/p/523900025
https://www.cnblogs.com/flying-tiger/p/6702796.html
https://cloud.tencent.com/developer/article/1943819