最近在致力同步保护SegmentFault的文章积攒~不便后续继续更新~
原文是2019年7月底开源后陆续po的,这里对近况进行了调整和补充。
心愿本人和我的项目都能够继续提高 (╹ヮ╹)ノ 欢送多多交换!!
搜狗C++ workflow异步调度框架github地址:
GitHub - sogou/workflow: C++ Parallel Computing and Asynchronous Networking Engine
先来和大家update一下,这一周以来workflow又有哪些成长呢:
- 新版更简洁的README.md
- server默认应用ipv4启动(为了兼容windows与unix的行为
- 加了全局配置项的文档about-config.md (正好和明天的话题相干!
开源了两周,备受小伙伴们关注,真的很开心 >_< 特别感谢各位关注和反对咱们的大神们小朋友们,心愿可能继续和大家交换,一起提高~
(下图更新于2022年3月,开源一年多留个留念~)
我也在整顿开源我的项目规范化相干的事件,如果有哪里做得不到位,心愿能帮我指出~
明天这个话题是十分通用的入门话题:写完代码咱们须要做什么最根本的零碎性能优化。
因为workflow是个异步调度引擎,workflow的职责就是让零碎各资源尽可能地利用起来,所以我的日常工作,除了写bug之外,还要配合开发小伙伴现场debug、剖析用了workflow之后的各项指标是否还能进一步晋升。
我还是联合具体几类资源为线索来介绍:
- CPU:多路复用相干的线程数、计算相干线程数、多过程
- 网络:长连贯短连贯、连接数管制、超时配置、压缩
- 计时器:timerfd的优化
- 计数器:命名计数器与匿名计数器
- 文件IO:理论场景用得少,先不写了
- GPU:目前我只做了demo版,所以没有放进去,也先不写了
其中计时器和计数器绝对简略一些,我会这里介绍下外部实现,其余的外部实现做了很多优化,每个话题都值得当前独自写一下。
一、CPU
先来看看咱们的配置项:
static constexpr struct WFGlobalSettings GLOBAL_SETTINGS_DEFAULT ={ .endpoint_params = ENDPOINT_PARAMS_DEFAULT, .dns_ttl_default = 12 * 3600, .dns_ttl_min = 180, .dns_threads = 4, .poller_threads = 4, .handler_threads = 20, .compute_threads = -1,};
1. 根本网络线程
个别用epoll的框架都须要对其进行相似proactor式的封装,那么就要负责做以下事件,以及决定具体哪个线程去分工:
- 对epoll具体某个fd进行读写
- 读写时把残缺数据包切下来
- 数据包切完之后的解析(即反序列化)
- 执行用户的操作
Workflow以后的做法,poller_threads
线程是去操作epoll读写和做fd读的切音讯的事件,而handler_threads
是做根本用户操作的,比方callback和作为server的话,咱们的process函数所在的线程。
brpc是不须要辨别的,我集体了解有几个起因,比方:
- 它套了一层bthread做换线程的调度;
- fd上拉了写链表:没人在写你就写,有人在写你就把数据扔下就行了,这个人会帮你写,不存在相似handler线程还要回去管poller线程的异步写的事件;
Workflow没有做这样的优化,次要还是因为一个过程内网络读写和业务操作压力比例根本是差不多确定的,业务上线前的调优调整一下poller和handler线程比例根本足够了,而且纯探讨性能的话,业内的解决方案根本是纯异步会比用户态协程模式快一点点,目前C++20的coroutine曾经进去了,心愿后续能更多业界成熟且高效的用法~Workflow目前才1岁多,很多优化可能都会往后放。
这里也顺带说一句,对于把数据包切下来和切完之后的解析,其实有些协定是不太能分得开的。
我鶸鶸地给大家列一下,从协定设计上,能够分以下三类:
- 收到音讯就能晓得我怎么残缺地切一条音讯进去;
- 收一点之后判断一下能力晓得我怎么切一条音讯进去;
- 一边收数据流一边解析,不到最初一刻都不晓得是不是收完。
第1种就很简略,个别做RPC协定咱们都会敌对地在头部通知你大略多长。
第2种有点相似HTTP这样,大略收完头部你就晓得后边还有多少了,这个时候你收header,是要本人边收边parse的。
第3种比方MySQL这种吐血的协定,大略它在设计的时候就没有想过你要多线程去操作一个fd读音讯,你得依据以后哪种包的状态再判断,这种必须写个状态机去残缺收完了能力交给用户。而这个收的期间,我曾经把每个field和每个ResultSet给解析进去了,收完根本等于数据反序列化也做完了。
所以第2种、第3种,对于切残缺音讯和解析音讯的反序列化操作其实并不会太分得开,workflow都会在poller_threads
里做。
2. 计算线程
咱们外部会有独立的计算线程池,默认是和零碎cpu数统一的数量,这个是根本能够缩小线程数过多而频繁切换的问题,当然如果用不到计算工作,此线程池不会创立。
和cpu数统一,那么不同期间不同类型的计算工作占比不同,这个workflow怎么解决呢?咱们外部用了一个谢爷创造的多维队列调度模型,曾经申请专利,当前有机会让谢爷写一篇给大家讲讲>_<
简略来说,workflow的计算工作都是带名字的,对于业务开发来说,根本只须要把同一类工作以同一个名字去创立,那么start之后是根本能够保障不同名字的工作被偏心调度,并且整体尽可能用满计算线程数,这是一种比优先级和固定队列要灵便得多的做法。
P.S. 咱们也有独立的DNS线程池,然而DNS目前的路由模式我感觉要并发去更新真的十分粗犷十分不喜爱,有空了路由机制是我第一个要动刀改良的中央!(认真立flag中o( ̄▽ ̄)o
3. 多过程
一般来说咱们不太须要多过程,然而不可避免的状况下,先前有个场景的确须要小伙伴拆多过程:应用Intel QAT加速卡多线程会卡spinlock,这个前几篇文章有个系列曾经提到过。
通用点说多过程,一般来说咱们作为server的做法是先bind再listen,而后fork多个过程,而后,重点是在于,你这个时候再去epoll_create,那么操作系统来保障连进来同一个端口的连贯不会惊群accept。
这个我集体的了解是:
- 首先咱们bind并listen,是保障多个过程拿到同一个listen_fd。
- 而后先fork再epoll_create,意思是由多个epoll去listen同一个listen_fd。因为epoll不是用户态的,操作系统来保障同一个listen_fd的accpet只会被一个epoll来响应,所以不会有惊群。
说回workflow~workflow的server想做成多过程就很简略了:用WFServer::serve()接口,做以上fd本人bind、listen,再fork屡次的事件就能够了。
也给大家列一下demo测试中多过程操作加速卡的性能。绿色的点是nginx(只能打到8w),nginx自身就是多过程单线程的,然而因为QAT只以多过程纬度来解决并发,因而咱们只以过程数比照,根本轻松上10w了。并且说一下,QAT加速卡如果只做RSA计算,极限QPS也就是10w左右。
以及短连贯、长连贯状况下多过程、多线程在咱们小伙伴调用QAT加速卡每个申请做2次RSA解压时的QPS比照状况:
这里的短连贯长连贯,就当作给大家抛砖引玉网络调优话题,但明天来不及,今天持续写下篇~~~
本系列的前两篇(站内):
C++ Workflow异步调度框架 - 根本介绍篇
C++ workflow异步调度框架 - 架构设计篇
下一篇重磅(这两天会更新到segmentfault):
C++ Workflow异步调度框架 - 性能优化网络篇
本系列其余文章:
C++ Workflow异步调度框架 - Kafka客户端
pyworkflow带你详解,那些Python调C++的大坑
SRPC架构介绍 - Sogou基于Workflow的自研RPC框架