关于mysql:为什么我建议需要定期重建数据量大但是性能关键的表

4次阅读

共计 7370 个字符,预计需要花费 19 分钟才能阅读完成。

集体创作公约:自己申明创作的所有文章皆为本人原创,如果有参考任何文章的中央,会标注进去,如果有疏漏,欢送大家批评。如果大家发现网上有剽窃本文章的,欢送举报,并且踊跃向这个 github 仓库 提交 issue,谢谢反对~

本文是“为什么我倡议”系列第三篇,本系列中会针对一些在高并发场景下,我对于组内后盾开发的一些开发倡议以及开发标准的要求进行阐明和剖析解读,置信能让各位在面对高并发业务的时候避开一些坑。
往期回顾:

  • 为什么我倡议在简单然而性能要害的表上所有查问都加上 force index
  • 为什么我倡议线上高并发量的日志输入的时候不能带有代码地位

个别当初对于业务要查问的数据量以及要放弃的并发量高于肯定配置的单实例 MySQL 的极限的状况,都会采取分库分表的计划解决。当然,当初也有很多 new SQL 的分布式数据库的解决方案,如果你用的是 MySQL,那么你能够思考 TiDB(实现了 MySQL 协定,兼容 MySQL 客户端以及 SQL 语句)。如果你用的是的 PgSQL,那么你能够思考应用 YugaByteDB(实现了 PgSQL 协定,兼容 PgSQL 客户端以及 SQL 语句),他们目前都有本人的云部署解决方案,你能够试试:

  • TiDB Cloud
  • YugaByte Cloud

然而对于传统分库分表的我的项目,底层的数据库还是基于 MySQL 以及 PgSQL 这样的传统关系型数据库。个别在业务刚开始的时候,会思考依照某个分片键多分一些表,例如订单表,咱们预计用户间接要查的订单记录是最近一年内的。如果是一年前的,提供其余入口去查,这时候查的就不是有业务数据库了,而是归档数据库,例如 HBase 这样的。例如咱们预计一年内用户订单,最多不会超过 10 亿,更新的并发 TPS(非查问 QPS)不会超过 10 万 /s。那么咱们能够思考分成 64 张表(个数最好是 2^n,因为 2^n 取余数 = 对 2^n – 1 取与运算,缩小分片键运算量)。而后咱们还会定时的归档掉一年前的数据,应用相似于 delete from table 这样的语句进行“ 彻底删除 ”(留神这里是引号的删除)。这样保障业务表的数据量级始终维持在

然而,日久天长当前,会发现,某些带分片键(这里就是用户 id)的一般查问,也会有些慢,有些走错本地索引。

查问越来越慢的起因

例如这个 SQL:

select * from t_pay_record
WHERE
((
    user_id = 'user_id1' 
    AND is_del = 0 
)) 
ORDER BY
    id DESC 
    LIMIT 20

这个表的分片键就是 user_id

一方面,正如我在“为什么我倡议在简单然而性能要害的表上所有查问都加上 force index”中说的,数据量可能有些超出咱们的预期,导致某些分片表大于肯定界线, 导致 MySQL 对于索引的随机采样越来越不准 ,因为统计数据不是实时更新,而是更新的行数超过肯定比例才会开始更新。并且统计数据不是全量统计,是抽样统计。所以在表的数据量很大的时候,这个统计数据很难十分精确。依附表自身主动刷新数据机制,参数比拟难以调整(次要是 STATS_SAMPLE_PAGES 这个参数,STATS_PERSISTENT 咱们个别不会改,咱们不会能承受在内存中保留,这样万一数据库重启,表就要从新剖析,这样减慢启动工夫,STATS_AUTO_RECALC 咱们也不会敞开,这样会导致优化器剖析的越来越不精确),很难预测出到底调整到什么数值最合适。并且业务的增长,用户的行为导致的数据的歪斜,也是很难预测的。通过 Alter Table 批改某个表的 STATS_SAMPLE_PAGES 的时候,会导致和 Analyze 这个 Table 一样的成果,会在表上加读锁,会阻塞表上的更新以及事务。所以不能在这种在线业务要害表下面应用。所以最好一开始就能预计出大表的量级,然而这个很难。

所以,咱们思考对于数据量比拟大的表,最好能提前通过分库分表管制每个表的数据量,然而业务增长与产品需要都是一直在迭代并且变简单的。很难保障不会呈现大并且索引比较复杂的表。这种状况下须要咱们,在适当调高 STATS_SAMPLE_PAGES 的前提下,对于一些用户触发的要害查问 SQL, 应用 force index 疏导它走正确的索引

然而, 有时候即便索引走对了,查问仍然有点慢 。具体去看这个 SQL 扫描的数据行数的时候,发现并没有很多。

+----+-------------+--------------+------------+-------+-----------------------------------------------------------------------------------------+-------------+---------+------+-------+----------+-------------+
| id | select_type | table        | partitions | type  | possible_keys                                                                           | key         | key_len | ref  | rows  | filtered | Extra       |
+----+-------------+--------------+------------+-------+-----------------------------------------------------------------------------------------+-------------+---------+------+-------+----------+-------------+
|  1 | SIMPLE      | t_pay_record | NULL       | index | idx_user_id,idx_user_status_pay,idx_user_id_trade_code_status_amount_create_time_is_del | idx_user_id | 32      | NULL |   16  |     0.01 | Using where |
+----+-------------+--------------+------------+-------+-----------------------------------------------------------------------------------------+-------------+---------+------+-------+----------+-------------+

可能还是会有偶现的这样的慢 SQL,并且随着时间推移越来越多,这个就和 MySQL InnoDB 外面的删除机制有关系了。目前大部分业务表都用的 InnoDB 引擎,并且都用的默认的行格局 Dynamic,在这种行格局下咱们在插入一条数据的时候,其构造大略如下所示:

记录头中,有删除标记:

当产生导致记录长度变动的更新时,例如变长字段理论数据变得更长这种,会将原来的记录标记为删除,而后在开端创立更新后的记录。当删除一条记录的时候,也是只是标记记录头的删除标记。

对于这种可能的碎片化,MySQL InnoDB 也是有冀望并且措施的, 即每个页面 InnoDB 引擎只会存储占用 93% 空间的数据,剩下的就是为了能让长度变动的更新不会导致数据跑到其余页面 。然而绝对的,如果 Delete 就相当于齐全节约了存储空间了。

个别状况下这种不会造成太大的性能损耗,因为删除个别是删的老的数据,更新个别集中在最近的数据。例如订单产生更新,个别是工夫最近的订单才会更新,很少会有很久前的订单根本不会更新,并且归档删除的个别也是很久之前的订单。然而随着业务越来越简单,归档逻辑也越来越简单,比方不同类型的订单时效不一样,可能呈现一年前还有未结算的预购订单不能归档。长此以往,你的数据可能会变成这样:

这样导致,原来你须要扫描很少页的数据,随着工夫的推移, 碎片越来越多 ,要扫描的页越来越多,这样 SQL 执行会越来越慢。

以上是对于表自身数据存储的影响,对于二级索引,因为 MVCC 机制的存在,导致频繁更新索引字段会对索引也造成很多空洞 。参考文档:https://dev.mysql.com/doc/ref…

InnoDB multiversion concurrency control (MVCC) treats secondary indexes differently than clustered indexes. Records in a clustered index are updated in-place, and their hidden system columns point undo log entries from which earlier versions of records can be reconstructed. Unlike clustered index records, secondary index records do not contain hidden system columns nor are they updated in-place.

咱们晓得,MySQL InnoDB 对于聚簇索引是在索引原始地位上进行更新,对于二级索引,如果二级索引列产生更新则是在原始记录上打上删除标记,而后在新的中央记录。这样和之前一样,会造成很多存储碎片。

综上所述:

  1. MySQL InnoDB 的会扭转记录长度的 Dynamic 行格局记录 Update,以及 Delete 语句,其实是原有记录的删除标记打标记。尽管 MySQL InnoDB 对于这个有做预留空间的优化,然而与日俱增,随着归档删除数据的增多,会有很多内存碎片升高扫描效率
  2. MVCC 机制对于二级索引列的更新,是在原始记录上打上删除标记,而后在新的中央记录,导致二级索引的扫描效率也随着工夫积攒而变慢

解决方案 – 重建表

对于这种状况,咱们能够通过重建表的形式解决。重建表其实是两全其美的行为:第一能够优化这种存储碎片,缩小要扫描的行数;第二能够从新 analyze 让 SQL 优化器采集数据更精确。

在 MySQL 5.6.17 之前,咱们须要借助内部工具 pt-online-schema-change 来帮忙咱们实现表的重建,pt-online-schema-change 工具的原理其实就是外部新建表,在原表上加好触发器同步更新到新建的表,并且同时复制数据到新建的表中,实现后,获取全局锁批改新建的表名字为原来的表名字,之后删除原始表。MySQL 5.6.17 之后 ,Optimize table 命令变成了 Online DDL,仅仅在筹备阶段以及最初的提交阶段,须要获取锁,两头的执行阶段,是不须要锁的,也就是不会阻塞业务的更新 DML。参考官网文档:https://dev.mysql.com/doc/ref…

Prior to Mysql 5.6.17, OPTIMIZE TABLE does not use online DDL. Consequently, concurrent DML (INSERT, UPDATE, DELETE) is not permitted on a table while OPTIMIZE TABLE is running, and secondary indexes are not created as efficiently.

As of MySQL 5.6.17, OPTIMIZE TABLE uses online DDL for regular and partitioned InnoDB tables, which reduces downtime for concurrent DML operations. The table rebuild triggered by OPTIMIZE TABLE is completed in place. An exclusive table lock is only taken briefly during the prepare phase and the commit phase of the operation. During the prepare phase, metadata is updated and an intermediate table is created. During the commit phase, table metadata changes are committed.

针对 InnoDB 表应用 Optimize Table 命令须要留神的一些点:

1. 针对大部分 InnoDB 表的 Optimize Table,其实等价于重建表 + Analyze 命令(等价于语句 ALTER TABLE ... FORCE),然而与 Analyze 命令不同的是,Optimize Table 是 online DDL 并且优化了机制, 只会在筹备阶段和最初的提交阶段获取表锁,这样大大减少了业务 DML 阻塞工夫,也就是说,这是一个能够思考在线执行的优化语句 (针对 MySQL 5.6.17 之后是这样)

mysql> OPTIMIZE TABLE foo;
+----------+----------+----------+-------------------------------------------------------------------+
| Table    | Op       | Msg_type | Msg_text                                                          |
+----------+----------+----------+-------------------------------------------------------------------+
| test.foo | optimize | note     | Table does not support optimize, doing recreate + analyze instead |
| test.foo | optimize | status   | OK                                                                |
+----------+----------+----------+-------------------------------------------------------------------+

2. 尽管如此,还是要抉择在业务低峰的时候执行 Optimize Table,因为和执行其余的 Online DDL 一样,会创立并记录长期日志文件,该文件记录了 DDL 操作期间所有 DML 插入、更新、删除的数据,如果是在业务顶峰的时候执行,很可能会造成日志过大,超过 innodb_online_alter_log_max_size 的限度:

mysql> OPTIMIZE TABLE foo;
+----------+----------+----------+----------------------------------------------------------------------------------------------------------------------------+
| Table    | Op       | Msg_type | Msg_text                                                                                                                   |
+----------+----------+----------+----------------------------------------------------------------------------------------------------------------------------+
| test.foo | optimize | note     | Table does not support optimize, doing recreate + analyze instead                                                          |
| test.foo | optimize | error    | Creating index 'PRIMARY' required more than 'innodb_online_alter_log_max_size' bytes of modification log. Please try again.|
| test.foo | optimize | status   | OK                                                                                                                         |
+----------+----------+----------+----------------------------------------------------------------------------------------------------------------------------+

3. 对于这种状况,如果咱们曾经处于业务低峰时段,但还是报这个谬误,咱们能够略微调大 innodb_online_alter_log_max_size 的大小,然而不能调太大,倡议每次调大 128 MB(默认是 128 MB)。如果这个过大,会可能有两个问题:(1)最初的提交阶段,因为日志太大,提交耗时过长,导致锁工夫过长。(2)因为业务压力导致始终一直地写入这个临时文件,然而始终赶不上,导致业务顶峰到得时候这个语句还在执行。
4. 倡议在执行的时候,如果要评估这个对于线上业务的影响,能够针对锁 wait/synch/sxlock/innodb/dict_sys_lockwait/synch/sxlock/innodb/dict_operation_lock 这两个锁进行监控,如果这两个锁相干锁事件太多,并且线上有显著的慢 SQL,建设还是 kill 掉选其余工夫执行 Optimize table 语句。

select thread_id,event_id,event_name,timer_wait from events_waits_history where event_name Like "%dict%" order by thread_id;

SELECT event_name,COUNT_STAR FROM events_waits_summary_global_by_event_name 
where event_name Like "%dict%" ORDER BY COUNT_STAR DESC;

微信搜寻“干货满满张哈希”关注公众号,加作者微信,每日一刷,轻松晋升技术,斩获各种 offer

我会常常发一些很好的各种框架的官网社区的新闻视频材料并加上集体翻译字幕到如下地址(也包含下面的公众号),欢送关注:

  • 知乎:https://www.zhihu.com/people/…
  • B 站:https://space.bilibili.com/31…
正文完
 0