关于后端:请求一下子太多了数据库危

6次阅读

共计 1444 个字符,预计需要花费 4 分钟才能阅读完成。

大家好,我是七淅(xī)。

如题目所说,和大家分享一个我曾优化过的业务场景。

当然,具体业务细节不重要,重要的是优化的思路。如果大家当前有遇到相似特点的场景,可能想到七淅这篇优化文章,那我就感觉很值了。

接下来我就间接进入主题,要分享得优化思路就是 申请合并

弱弱说一句,因为优化成果特地显著,这一优化我间接写到简历上了。

之前面试有不少面试官都会来问我是怎么做的,你看这不就给我机会施展了吗?所以大家懂的,有适合场景记得用起来,当前面试也和面试官谈笑自若。

1. 什么是申请合并

首先阐明一下,这并不是什么高级的优化形式,不难,朴实无华,但有用。

如字面意思,就是(把多个)申请合并(成一个申请去解决)。

当初含意你晓得了,当初咱们看下文章题目:「申请一下子太多了,数据库危」

聪慧的你是不是曾经猜到七淅要怎么优化了?

2. 业务背景

我有一个推送业务,会把每次推送记录都存到 MongoDB 中。

PS:不必在意是 MongoDB 哈,可能有的读者可能没接触过,没关系。反正它也是一个数据库,就算换成 MySQL,优化一样实用哈

而推送业务一个十分常见的场景就是定时发送音讯给用户,所以到点之后对应的每秒写申请就特地高。

当初我这边是有 8000 的每秒写入量,前面通过申请合并优化到每秒写 500。

3. 优化实现

当初问题来了,具体怎么实现的呢?

理清有 3 个小点就好了,咱们顺着思路理一下:

1、首先,既然咱们须要把多个申请合成一个,是不是须要有一个中央把这多个申请给存起来?

存数据的话,是不是就能够用数据库、缓存、队列了。如下图:

好了,当初数据存起来了,不可能始终存着吧,始终存着不解决,岂不是就是不解决申请了,那这必定不对。

2、所以咱们是不是就须要晓得,什么时候要解决存起来的数据?

「什么时候」—— 用定时工作每隔多久取出来解决是不是就能够,或者当存够多少数据量的时候,咱们就集中处理。

我这里的业务是用的定时工作来做的,那对于定时工作的实现也有多种形式。

我这里是用的定时线程池,每隔 xx 秒,取 500 个申请进行解决。这里你发现没有,优化后的成果就是每秒写 500,这个 500 就是这里每次获得申请量来的。

所以说,优化成果要多少的处理量都是咱们本人决定的。当然了,因为申请总量是不变得,所以每秒处理量越少,对应解决工夫就越长。具体是什么数字,这个就看具体业务啦

3、最初一点,多个申请存起来了,也晓得什么机会去解决,那这个「解决」是怎么解决呢?

答案很简略,把多个单次操作换成批量操作。比方数据库批量插入,redis 的 mset。

以上 3 点,给大家整顿个流程图:

4. 实用场景

最初,下面得优化姿态学废后,那什么业务场景能够用呢?

其实这个你想想,申请合并后的成果是怎么的,差不多也就晓得了。

一开始说含意:(把多个)申请合并(成一个申请去解决)

这样的成果阐明业务容许申请能够不必马上解决,高级用语就是数据实时性要求不高 —— 这是第一个业务场景特点

第二个特点:「申请合并」,业务得有肯定的并发场景才有机会给你合并呀。不然你说每分钟才几个申请,那这不是合了个寂寞吗?(狗头)

5. 文末休息区(求关注)

其实很多优化形式都是朴实无华的,第一次据说时候可能会感觉牛蛙牛蛙,但理论接触理解后,会发现其实也没多高级。

不过,高级的优化形式必定也是有的。就像我也很好奇,阿里京东这种亿级秒杀,微博的粉丝关系,抖音的举荐等等是怎么实现的。
假使哪天真的有理论参加的大佬和我说,无非就是堆机器,没什么特地的,那我真的会尬住,哈哈哈哈。

如果感觉文章不错,欢送关注我的公众号:七淅在学 Java

正文完
 0