关于即时通讯:IM即时通讯开发如何设计能支撑百万并发的数据库

7次阅读

共计 3494 个字符,预计需要花费 9 分钟才能阅读完成。

置信看到这个题目,很多人的第一反馈就是:对数据库进行分库分表啊!然而实际上,数据库层面的分库分表到底是用来干什么的,其不同的作用如何应答不同的场景,我感觉很多同学可能都没搞清楚。
小型零碎的典型数据库单机架构和显著的瓶颈

如果咱们当初是一个小守业公司,注册用户就 20 万,每天沉闷用户就 1 万,每天单表数据量就 1000,而后高峰期每秒钟并发申请最多就 10。

天呐!就这种零碎,轻易找一个有几年工作教训的高级工程师,而后带几个年老工程师,轻易干干都能够做进去。

因为这样的零碎,实际上次要就是在后期进行疾速的业务性能开发,搞一个单块零碎部署在一台服务器上,而后连贯一个数据库就能够了。

接着大家就是不停地在一个工程里填充进去各种业务代码,尽快把公司的业务撑持起来。

后果呢,没想到咱们运气这么好,碰上个优良的 CEO 带着咱们走上了坎坷不平!

公司业务倒退迅猛,过了几个月,注册用户数达到了 2000 万!每天沉闷用户数 100 万!每天单表新增数据量达到 50 万条!高峰期每秒申请量达到 1 万!

同时公司还顺带着融资了两轮,估值达到了惊人的几亿美金!一只暮气沉沉的幼年独角兽的节奏!

好吧,当初大家感觉压力曾经有点大了,为啥呢?因为每天单表新增 50 万条数据,一个月就多 1500 万条数据,一年下来单表会达到上亿条数据。

通过一段时间的运行,当初咱们单表曾经两三千万条数据了,勉强还能撑持着。

然而,眼见着零碎拜访数据库的性能怎么越来越差呢,单表数据量越来越大,拖垮了一些简单查问 SQL 的性能啊!

而后高峰期申请当初是每秒 1 万,咱们的零碎在线上部署了 20 台机器,均匀每台机器每秒撑持 500 申请,这个还能抗住,没啥大问题。然而数据库层面呢?

如果说此时你还是一台数据库服务器在撑持每秒上万的申请,负责任的通知你,每次高峰期会呈现下述问题:

1)你的数据库服务器的磁盘 IO、网络带宽、CPU 负载、内存耗费,都会达到十分高的状况,数据库所在服务器的整体负载会十分重,甚至都快不堪重负了;2)高峰期时,原本你单表数据量就很大,SQL 性能就不太好,这时加上你的数据库服务器负载太高导致性能降落,就会发现你的 SQL 性能更差了;3)最显著的一个感觉,就是你的零碎在高峰期各个性能都运行的很慢,用户体验很差,点一个按钮可能要几十秒才进去后果;4)如果你运气不太好,数据库服务器的配置不是特地的高的话,弄不好你还会经验数据库宕机的状况,因为负载太高对数据库压力太大了。

多台服务器分库撑持高并发读写

首先咱们先思考第一个问题,数据库每秒上万的并发申请应该如何来撑持呢?

要搞清楚这个问题,先得明确个别数据库部署在什么配置的服务器上。通常来说,如果你用一般配置的服务器来部署数据库,那也起码是 16 核 32G 的机器配置。

这种十分一般的机器配置部署的数据库,个别线上的教训是:不要让其每秒申请撑持超过 2000,个别管制在 2000 左右。

管制在这个水平,个别数据库负载绝对正当,不会带来太大的压力,没有太大的宕机危险。

所以首先第一步,就是在上万并发申请的场景下,部署个 5 台服务器,每台服务器上都部署一个数据库实例。即时通讯聊天软件开发能够征询蔚可云开发。

而后每个数据库实例里,都创立一个一样的库,比如说订单库。此时在 5 台服务器上都有一个订单库,名字能够相似为:db_order_01、db_order_02 等等。

而后每个订单库里,都有一个雷同的表,比如说订单库里有订单信息表,那么此时 5 个订单库里都有一个订单信息表。

比方:db_order_01 库里就有一个 tb_order_01 表,db_order_02 库里就有一个 tb_order_02 表。

这就实现了一个根本的分库分表的思路,原来的一台数据库服务器变成了 5 台数据库服务器,原来的一个库变成了 5 个库,原来的一张表变成了 5 个表。

而后你在写入数据的时候,须要借助数据库中间件,比方 Sharding-JDBC,或者是 MyCAT,都能够。

你能够依据比方订单 ID 来 Hash 后按 5 取模,比方每天订单表新增 50 万数据,此时其中 10 万条数据会落入 db_order_01 库的 tb_order_01 表,另外 10 万条数据会落入 db_order_02 库的 tb_order_02 表,以此类推。

这样就能够把数据平均扩散在 5 台服务器上了,查问的时候,也能够通过订单 ID 来 hash 取模,去对应的服务器上的数据库里,从对应的表里查问那条数据进去即可。

做这一步有什么益处呢?第一个益处,原来比方订单表就一张表,这个时候不就成了 5 张表了么,那么每个表的数据就变成 1/5 了。

假如订单表一年有 1 亿条数据,此时 5 张表里每张表一年就 2000 万数据了。

那么假如以后订单表里曾经有 2000 万数据了,此时做了上述拆分,每个表里就只有 400 万数据了。

而且每天新增 50 万数据的话,那么每个表才新增 10 万数据,这样是不是初步缓解了单表数据量过大影响零碎性能的问题?

另外就是每秒 1 万申请到 5 台数据库上,每台数据库就承载每秒 2000 的申请,是不是一下子把每台数据库服务器的并发申请升高到了平安范畴内?

这样,升高了数据库的高峰期负载,同时还保障了高峰期的性能。
大量分表来保障海量数据下的查问性能

然而上述的数据库架构还有一个问题,那就是单表数据量还是过大,当初订单表才分为了 5 张表,那么如果订单一年有 1 亿条,每个表就有 2000 万条,这也还是太大了。

所以还应该持续分表,大量分表。比方能够把订单表一共拆分为 1024 张表,这样 1 亿数据量的话,扩散到每个表里也就才 10 万量级的数据量,而后这上千张表扩散在 5 台数据库里就能够了。

在写入数据的时候,须要做两次路由,先对订单 ID Hash 后对数据库的数量取模,能够路由到一台数据库上,而后再对那台数据库上的表数量取模,就能够路由到数据库上的一个表里了。

通过这个步骤,就能够让每个表里的数据量十分小,每年 1 亿数据增长,然而到每个表里才 10 万条数据增长,这个零碎运行 10 年,每个表里可能才百万级的数据量。

在分库分表之后你必然要面对的一个问题,就是 ID 咋生成?因为要是一个表分成多个表之后,每个表的 ID 都是从 1 开始累加自增长,那必定不对啊。

举个例子,你的订单表拆分为了 1024 张订单表,每个表的 ID 都从 1 开始累加,这个必定有问题了!

你的零碎就没方法依据表主键来查问订单了,比方 ID = 50 这个订单,在每个表里都有!

所以此时就须要分布式架构下的全局惟一 ID 生成的计划了,在分库分表之后,对于插入数据库中的外围 ID,不能间接简略应用表自增 ID,要全局生成惟一 ID,而后插入各个表中,保障每个表内的某个 ID,全局惟一。

比如说订单表尽管拆分为了 1024 张表,然而 ID = 50 这个订单,只会存在于一个表里。

那么如何实现全局惟一 ID 呢?有以下几种计划,咱们一一一来看看。

这个计划就是说你的零碎每次要生成一个 ID,都是往一个独立库的一个独立表里插入一条没什么业务含意的数据,而后获取一个数据库自增的一个 ID。拿到这个 ID 之后再往对应的分库分表里去写入。

比如说你有一个 auto_id 库,外面就一个表,叫做 auto_id 表,有一个 ID 是自增长的。

那么你每次要获取一个全局惟一 ID,间接往这个表里插入一条记录,获取一个全局惟一 ID 即可,而后这个全局惟一 ID 就能够插入订单的分库分表中。

这个计划的益处就是不便简略,谁都会用。毛病就是单库生成自增 ID,要是高并发的话,就会有瓶颈的,因为 auto_id 库要是承载个每秒几万并发,必定是不事实的了。
读写拆散来撑持按需扩容以及性能晋升

这个时候整体成果曾经挺不错了,大量分表的策略保障可能将来 10 年,每个表的数据量都不会太大,这能够保障单表内的 SQL 执行效率和性能。

而后多台数据库的拆分形式,能够保障每台数据库服务器承载一部分的读写申请,升高每台服务器的负载。

然而此时还有一个问题,如果说每台数据库服务器承载每秒 2000 的申请,而后其中 400 申请是写入,1600 申请是查问。

也就是说,增删改的 SQL 才占到了 20% 的比例,80% 的申请是查问。此时如果说随着用户量越来越大,又变成每台服务器承载 4000 申请了。

那么其中 800 申请是写入,3200 申请是查问,如果说你依照目前的状况来扩容,就须要减少一台数据库服务器。

然而此时可能就会波及到表的迁徙,因为须要迁徙一部分表到新的数据库服务器下来,是不是很麻烦?

其实齐全没必要,数据库个别都反对读写拆散,也就是做主从架构。

写入的时候写入主数据库服务器,查问的时候读取从数据库服务器,就能够让一个表的读写申请离开落地到不同的数据库下来执行。

这样的话,如果写入主库的申请是每秒 400,查问从库的申请是每秒 1600。

正文完
 0