咱们公司的基础架构部有个云Redis平台,其中Redis实例在申请的时候能够自由选择须要的内存的大小。而后就引发了我的一个思考,Redis单实例内存最大申请到多大比拟适合?假如母机是64GB内存的物理机,如果不思考CPU资源的的节约,我是否能够开一个50G的Redis实例?
于是我在Google上各种搜寻,探讨这个问题的人仿佛不多。找到惟一感觉靠谱点的答案,那就是单过程调配的内存最好不要超过一个node里的内存总量,否则linux当该node里的内存调配光了的时候,会在本人node里动用硬盘swap,而不是其它node里申请。这即便所谓的numa陷阱,当Redis进入这种状态后会导致性能急剧下降(不只是redis,所有的内存密集型利用如mysql,mongo等都会有相似问题)。
看起来这个解释十分有说服力。于是乎,我就想亲手捕获一次NUMA陷阱,看看这个家伙到底什么样。
先聊聊QPI与NUMA
最早在CPU都是单核的时候,用的总线都是FSB总线。经典构造如下图:
到来起初CPU的开发者们发现CPU的频率曾经靠近物理极限了,没法再有更大程度的进步了。在2003年的时候,CPU的频率就曾经达到2个多GB,甚至3个G了。当初你再来看明天的CPU,根本也还是这个频率,没提高多少。摩尔定律生效了,或者说是向另外一个方向倒退了。那就是多核化、多CPU化。
刚开始核不多的时候,FSB总线勉强还能够撑持。然而随着CPU越来越多,所有的数据IO都通过这一条总线和内存叫唤数据,这条FSB就成为了整个计算机系统的瓶颈。举个北京的例子,这就好比进回龙观的京藏高速,刚开始回龙观人口不多的时候,这条高速承载没问题。然而当初回龙观汇集了几十万人了,“总线”还仅有这一条,未免效率太低。
CPU的设计者们很快扭转了本人的设计,引入了QPI总线,相应的CPU的构造就叫NMUA架构。下图直观了解
话说NUMA陷阱
NUMA陷阱指的是引入QPI总线后,在计算机系统里可能会存在的一个坑。大抵的意思就是如果你的机器关上了numa,那么你的内存即便在短缺的状况下,也会应用磁盘上的swap,导致性能低下。起因就是NUMA为了高效,会仅仅只从你的以后node里分配内存,只有以后node里用光了(即便其它node还有),也依然会启用硬盘swap。
当我第一次据说到这个概念的时候,不禁感叹我运气好,我的Redis实例貌似素来没有掉进这个陷阱里过。那为了当前也别栽坑,连忙去理解了下我的机器的numa状态:
# numactl --hardwareavailable: 2 nodes (0-1)node 0 cpus: 0 1 2 3 4 5 12 13 14 15 16 17node 0 size: 32756 MBnode 0 free: 19642 MBnode 1 cpus: 6 7 8 9 10 11 18 19 20 21 22 23node 1 size: 32768 MBnode 1 free: 18652 MBnode distances:node 0 1 0: 10 21 1: 21 10
下面后果阐明咱们有两个node,node0和node1,别离有12个外围,各有32GB的内存。
再看zone_reclaim_mode,它用来治理当一个内存区域(zone)外部的内存耗尽时,是从其外部进行内存回收还是能够从其余zone进行回收的选项:
- 0 敞开zone_reclaim模式,能够从其余zone或NUMA节点回收内存
- 1 关上zone_reclaim模式,这样内存回收只会产生在本地节点内
- 2 在本地回收内存时,能够将cache中的脏数据写回硬盘,以回收内存
- 4 在本地回收内存时,示意能够用Swap 形式回收内存
# cat /proc/sys/vm/zone_reclaim_mode1
额,好吧。我的这台机器上的zone_reclaim_mode还真是1,只会在本地节点回收内存。
实际捕获numa陷阱得逞
那我的好奇心就来了,既然我的单个node节点只有32G,那我部署一个50G的Redis,给它填满数据试试到底会不会产生swap。
试验开始,我先查看了本地总内存,以及各个node的内存残余情况。
# top......Mem: 65961428k total, 26748124k used, 39213304k free, 632832k buffersSwap: 8388600k total, 0k used, 8388600k free, 1408376k cached# cat /proc/zoneinfo" ......Node 0, zone Normal pages free 4651908Node 1, zone Normal pages free 4773314
总内存不必解释,/proc/zoneinfo
里蕴含了node可供应用程序申请的free pages。node1有4651908个页面,4651908\*4K=18G的可用内存。
接下来让咱们启动redis实例,把其内存下限设置到超过单个node里的内存大小。我这里单node内存大小是32G,我把redis设置成了50G。开始灌入数据。最终数据全副灌完之后,
# topMem: 65961428k total, 53140400k used, 12821028k free, 637112k buffersSwap: 8388600k total, 0k used, 8388600k free, 1072524k cached PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND 8356 root 20 0 62.8g 46g 1292 S 0.0 74.5 3:45.34 redis-server # cat /proc/zoneinfo | grep "pages free" pages free 3935 pages free 347180 pages free 1402744 pages free 1501670
试验证实,在zone_reclaim_mode为1的状况下,Redis是均匀在两个node里申请节点的,并没有固定在某一个cpu里。
莫非是大佬们的忠告错了吗?其实不是,如果不绑定亲和性的话,分配内存是当过程在哪个node上的CPU发动内存申请,就优先在哪个node里分配内存。之所以是平均分配在两个node里,是因为redis-server过程试验中常常会进入被动睡眠状态,醒来后可能CPU就换了。所以基本上,最初看起来内存是平均分配的。如下图,CPU进行了500万次的上下文切换,用top命令看到cpu也是在node0和node1跳来跳去。
# grep ctxt /proc/8356/statusvoluntary_ctxt_switches: 5259503nonvoluntary_ctxt_switches: 1449
改良办法,胜利抓获numa陷阱
杀死过程,内存归位
# cat /proc/zoneinfo Node 0, zone Normal pages free 7597369Node 1, zone Normal pages free 7686732
绑定CPU和内存的亲和性,而后再启动。
numactl --cpunodebind=0 --membind=0 /search/odin/daemon/redis/bin/redis-server /search/odin/daemon/redis/conf/redis.conf
top命令察看到CPU的确始终在node0的节点里。node里的内存也在疾速耗费。
# cat /proc/zoneinfo Node 0, zone Normal pages free 10697Node 1, zone Normal pages free 7686732
看,内存很快就耗费光了。咱们再看top命令察看到的swap,很冲动地发现,我终于陷入到传说中的numa陷阱了。
Tasks: 603 total, 2 running, 601 sleeping, 0 stopped, 0 zombieCpu(s): 0.7%us, 5.4%sy, 0.0%ni, 85.6%id, 8.2%wa, 0.0%hi, 0.1%si, 0.0%stMem: 65961428k total, 34530000k used, 31431428k free, 319156k buffersSwap: 8388600k total, 6000792k used, 2387808k free, 777584k cached PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND 258 root 20 0 0 0 0 R 72.3 0.0 0:17.18 kswapd025934 root 20 0 37.5g 30g 1224 D 71.6 48.7 1:06.09 redis-server
这时候,Redis理论应用的物理内存RES定格到了30g不再上涨,而是开始耗费Swap。
又过了一会儿,Redis被oom给kill了。
论断
通过明天的试验,咱们能够发现的确有NUMA陷阱这种货色存在。不过那是我手工通过numactl
指令绑定cpu和mem的亲和性后才遭逢的。置信国内绝大部分的线上Redis没有进行这个绑定,所以实践上来单Redis单实例能够应用到整个机器的物理内存。(实际中最好不要这么干,你的大部分内存都绑定到一个redis过程里的话,那其它CPU核就没啥事干了,节约了CPU的多核计算能力)
扩大
当通过numactl
绑定CPU和mem都在一个node里的时候,内存IO不须要通过总线,性能会比拟高,你Redis的QPS能力也会上涨。和跨node的内存IO性能比照,能够上面的实例,就是10:21的区别。
# numactl --hardware......node distances:node 0 1 0: 10 21 1: 21 10
你要是对性能有极致的谋求,能够试着绑定numa的亲和性玩玩。不过,no作no die,掉到numa陷阱里可别赖我,嘎嘎!
开发内功修炼之内存篇专辑:
- 1.带你深刻了解内存对齐最底层原理
- 2.内存随机也比程序拜访慢,带你深刻了解内存IO过程
- 3.从DDR到DDR4,内存外围频率其实基本上就没太大的提高
- 4.理论测试内存在程序IO和随机IO时的拜访延时差别
- 5.揭穿内存厂家“谎话”,实测内存带宽实在体现
- 6.NUMA架构下的内存拜访提早区别!
- 7.PHP7内存性能优化的思维精华
- 8.一次内存性能晋升的我的项目实际
- 9.挑战Redis单实例内存最大极限,“遭逢”NUMA陷阱!
我的公众号是「开发内功修炼」,在这里我不是单纯介绍技术实践,也不只介绍实践经验。而是把实践与实际联合起来,用实际加深对实践的了解、用实践进步你的技术实际能力。欢送你来关注我的公众号,也请分享给你的好友~~~