关于mysql:mysql分库分表

45次阅读

共计 3699 个字符,预计需要花费 10 分钟才能阅读完成。

目录:

  • 用一个守业公司的倒退作为背景引入
  • 用多台服务器来分库撑持高并发读写
  • 大量分表来保障海量数据下查问性能
  • 读写拆散来撑持按需扩容及性能晋升
  • 高并发下的数据库架构设计总结

这篇文章,咱们来聊一下对于一个撑持日活百万用户的高并零碎,他的数据库架构应该如何设计?

看到这个题目,很多人第一反馈就是:分库分表啊!

然而实际上,数据库层面的分库分表到底是用来干什么的,他的不同的作用如何应答不同的场景,我感觉很多同学可能都没搞清楚。

(1)用一个守业公司的倒退作为背景引入

如果咱们当初是一个小守业公司,注册用户就 20 万,每天沉闷用户就 1 万,每天单表数据量就 1000,而后高峰期每秒钟并发申请最多就 10。

天哪!就这种零碎,轻易找一个有几年工作教训的高级工程师,而后带几个年老工程师,轻易干干都能够做进去。

因为这样的零碎,实际上次要就是在后期疾速的进行业务性能的开发,搞一个单块零碎部署在一台服务器上,而后连贯一个数据库就能够了。

接着大家就是不停的在一个工程里填充进去各种业务代码,尽快把公司的业务撑持起来,如下图所示。

后果呢,没想到咱们运气这么好,碰上个优良的 CEO 带着咱们走上了坎坷不平!

公司业务倒退迅猛,过了几个月,注册用户数达到了 2000 万!每天沉闷用户数 100 万!每天单表新增数据量达到 50 万条!高峰期每秒申请量达到 1 万!

同时公司还顺带着融资了两轮,估值达到了惊人的几亿美金!一只暮气沉沉的幼年独角兽的节奏!

好吧,当初大家感觉压力曾经有点大了,为啥呢?

因为每天单表新增 50 万条数据,一个月就多 1500 万条数据,一年下来单表会达到上亿条数据。

通过一段时间的运行,当初咱们单表曾经两三千万条数据了,勉强还能撑持着。

然而,眼见着零碎拜访数据库的性能怎么越来越差呢,单表数据量越来越大,拖垮了一些简单查问 SQL 的性能啊!

而后高峰期申请当初是每秒 1 万,咱们的零碎在线上部署了 20 台机器,均匀每台机器每秒撑持 500 申请,这个还能抗住,没啥大问题。然而数据库层面呢?

如果说此时你还是一台数据库服务器在撑持每秒上万的申请,负责任的通知你,每次高峰期会呈现下述问题:

  • 你的数据库服务器的磁盘 IO、网络带宽、CPU 负载、内存耗费,都会达到十分高的状况,数据库所在服务器的整体负载会十分重,甚至都快不堪重负了
  • 高峰期时,原本你单表数据量就很大,SQL 性能就不太好,这时加上你的数据库服务器负载太高导致性能降落,就会发现你的 SQL 性能更差了
  • 最显著的一个感觉,就是你的零碎在高峰期各个性能都运行的很慢,用户体验很差,点一个按钮可能要几十秒才进去后果
  • 如果你运气不太好,数据库服务器的配置不是特地的高的话,弄不好你还会经验数据库宕机的状况,因为负载太高对数据库压力太大了

(2)多台服务器分库撑持高并发读写

首先咱们先思考第一个问题,数据库每秒上万的并发申请应该如何来撑持呢?要搞清楚这个问题,先得明确个别数据库部署在什么配置的服务器上。

通常来说,如果你用一般配置的服务器来部署数据库,那也起码是 16 核 32G 的机器配置。

这种十分一般的机器配置部署的数据库,个别线上的教训是:不要让其每秒申请撑持超过 2000,个别管制在 2000 左右。

管制在这个水平,个别数据库负载绝对正当,不会带来太大的压力,没有太大的宕机危险。

所以首先第一步,就是在上万并发申请的场景下,部署个 5 台服务器,每台服务器上都部署一个数据库实例。

而后每个数据库实例里,都创立一个一样的库,比如说订单库。此时在 5 台服务器上都有一个订单库,名字能够相似为:db_order_01,db_order_02,等等。

而后每个订单库里,都有一个雷同的表,比如说订单库里有订单信息表,那么此时 5 个订单库里都有一个订单信息表。

比方 db_order_01 库里就有一个 tb_order_01 表,db_order_02 库里就有一个 tb_order_02 表。

这就实现了一个根本的分库分表的思路,原来的一台数据库服务器变成了 5 台数据库服务器,原来的一个库变成了 5 个库,原来的一张表变成了 5 个表。

而后你在写入数据的时候,须要借助数据库中间件,比方 sharding-jdbc,或者是 mycat,都能够。

你能够依据比方订单 id 来 hash 后按 5 取模,比方每天订单表新增 50 万数据,此时其中 10 万条数据会落入 db_order_01 库的 tb_order_01 表,另外 10 万条数据会落入 db_order_02 库的 tb_order_02 表,以此类推。

这样就能够把数据平均扩散在 5 台服务器上了,查问的时候,也能够通过订单 id 来 hash 取模,去对应的服务器上的数据库里,从对应的表里查问那条数据进去即可。

根据这个思路画出的图如下所示,大家能够看看。

做这一步有什么益处呢?第一个益处,原来比方订单表就一张表,这个时候不就成了 5 张表了么,那么每个表的数据就变成 1 / 5 了。

假如订单表一年有 1 亿条数据,此时 5 张表里每张表一年就 2000 万数据了。那么假如以后订单表里曾经有 2000 万数据了,此时做了上述拆分,每个表里就只有 400 万数据了。

而且每天新增 50 万数据的话,那么每个表才新增 10 万数据,这样是不是初步缓解了单表数据量过大影响零碎性能的问题?

另外就是每秒 1 万申请到 5 台数据库上,每台数据库就承载每秒 2000 的申请,是不是一下子把每台数据库服务器的并发申请升高到了平安范畴内?这样,升高了数据库的高峰期负载,同时还保障了高峰期的性能。

(3)大量分表来保障海量数据下的查问性能

然而上述的数据库架构还有一个问题,那就是单表数据量还是过大,当初订单表才分为了 5 张表,那么如果订单一年有 1 亿条,每个表就有 2000 万条,这也还是太大了。所以还应该持续分表,大量分表。

比方能够把订单表一共拆分为 1024 张表,这样 1 亿数据量的话,扩散到每个表里也就才 10 万量级的数据量,而后这上千张表扩散在 5 台数据库里就能够了。

在写入数据的时候,须要做 两次路由,先对订单 id hash 后对数据库的数量取模,能够路由到一台数据库上,而后再对那台数据库上的表数量取模,就能够路由到数据库上的一个表里了。

通过这个步骤,就能够让每个表里的数据量十分小,每年 1 亿数据增长,然而到每个表里才 10 万条数据增长,这个零碎运行 10 年,每个表里可能才百万级的数据量。

这样能够一次性为零碎将来的运行做好短缺的筹备,看上面的图,一起来感受一下:

(4)读写拆散来撑持按需扩容以及性能晋升

这个时候整体成果曾经挺不错了,大量分表的策略保障可能将来 10 年,每个表的数据量都不会太大,这能够保障单表内的 SQL 执行效率和性能。

而后多台数据库的拆分形式,能够保障每台数据库服务器承载一部分的读写申请,升高每台服务器的负载。

然而此时还有一个问题,如果说每台数据库服务器承载每秒 2000 的申请,而后其中 400 申请是写入,1600 申请是查问。也就是说,增删改的 SQL 才占到了 20% 的比例,80% 的申请是查问。

此时如果说随着用户量越来越大,如果又变成每台服务器承载 4000 申请了。那么其中 800 申请是写入,3200 申请是查问,如果说你依照目前的状况来扩容,就须要减少一台数据库服务器.

然而此时可能就会波及到表的迁徙,因为须要迁徙一部分表到新的数据库服务器下来,是不是很麻烦?

其实齐全没必要,数据库个别都反对读写拆散,也就是做主从架构。写入的时候写入主数据库服务器,查问的时候读取从数据库服务器,就能够让一个表的读写申请离开落地到不同的数据库下来执行。

这样的话,如果写入主库的申请是每秒 400,查问从库的申请是每秒 1600,那么图大略如下所示。

写入主库的时候,会主动同步数据到从库下来,保障主库和从库数据统一。而后查问的时候都是走从库去查问的,这就通过数据库的主从架构实现了读写拆散的成果了。

当初的益处就是,如果说当初主库写申请减少到 800,这个无所谓,不须要扩容。而后从库的读申请减少到了 3200,须要扩容了。

这时,你间接给主库再挂载一个新的从库就能够了,两个从库,每个从库撑持 1600 的读申请,不须要因为读申请增长来扩容主库。

实际上线上生产你会发现,读申请的增长速度远远高于写申请,所以读写拆散之后,大部分时候就是扩容从库撑持更高的读申请就能够了。

而且另外一点,对同一个表,如果你既写入数据(波及加锁),还从该表查问数据,可能会牵扯到锁抵触等问题,无论是写性能还是读性能,都会有影响。

所以一旦读写拆散之后,对主库的表就仅仅是写入,没任何查问会影响他,对从库的表就仅仅是查问。

(5)高并发下的数据库架构设计总结

其实从大的一个简化的角度来说,高并发的场景下,数据库层面的架构必定是须要通过精心的设计的。

尤其是波及到分库来撑持高并发的申请,大量分表保障每个表的数据量别太大,读写拆散实现主库和从库按需扩容以及性能保障。

这篇文章就是从一个大的角度来梳理了一下思路,各位同学能够联合本人公司的业务和我的项目来思考本人的零碎如何做分库分表应该怎么做。

另外就是,具体的分库分表落地的时候,须要借助数据库中间件来实现分库分表和读写拆散,大家能够本人参考 sharding-jdbc 或者 mycat 的官网即可,外面的文档都有具体的应用形容。

正文完
 0