本文波及以下内容

  • 开启NMT查看JVM内存应用状况
  • 通过pmap命令查看过程物理内存应用状况
  • smaps查看过程内存地址
  • gdb命令dump内存块

背景

最近收到运维反馈,说有我的项目的一个节点的RSS曾经是Xmx的两倍多了,因为是ECS机器所以我的项目能够始终运行,幸好机器内存短缺,不然就可能影响到其余利用了。

排查问题

通过跳板机登录到指标机器,执行top命令,再按c,看到对应的过程所占用的RES有8个多G(这里过后遗记截图了),然而实际上咱们配置的Xmx只有3G,而且程序还是失常运行的,所以不会是堆占用了这么多,于是就把问题方向指向了非堆的内存。

首先想到通过Arthas查看内存散布状况,执行dashboard命令,查看内存散布状况

发现堆和非堆的内存加起来也就2个G不到,然而这里看到的非堆只蕴含了code_cache和metaspace的局部,那有没有可能是其余非堆的局部有问题呢?

NMT

NMT是Native Memory Tracking的缩写,是Java7U40引入的HotSpot新个性,开启后能够通过jcmd命令来对JVM内存应用状况进行跟踪。留神,依据Java官网文档,开启NMT会有5%-10%的性能损耗。
-XX:NativeMemoryTracking=[off | summary | detail]  # off: 默认敞开 # summary: 只统计各个分类的内存应用状况.# detail: Collect memory usage by individual call sites.

增加-XX:NativeMemoryTracking=detail命令到启动参数中,而后重启我的项目。

跑了一段时间后top看了下过程的RES,发现曾经5个多G了

执行jcmd <pid> VM.native_memory summary scale=MB

从图中能够看到堆和非堆的总应用内存(committed)也就2G多,那还有3个G的内存去哪里了呢。

pmap

pmap命令是Linux上用来开过程地址空间的

执行pmap -x <pid> | sort -n -k3 > pmap-sorted.txt命令能够依据理论内存排序

查看pmap-sorted.txt文件,发现有大量的64M内存块

难道是linux glibc 中经典的 64M 内存问题?之前看挖坑的张师傅写过一篇文章(一次 Java 过程 OOM 的排查剖析(glibc 篇))讲过这个问题,于是筹备参考一下排查思路

尝试设置环境变量MALLOC_ARENA_MAX=1,重启我的项目,跑了一段时间当前,再次执行pmap命令查看内存状况,发现并没有什么变动,看来并不是这个起因,文章前面的步骤就没有什么参考意义了。

smaps + gdb

既然能够看到有这么多异样的内存块,那有没有方法晓得外面存的是什么内容呢,答案是必定的。通过一番材料查阅,发现能够通过gdb的命令把指定地址范畴的内存块dump进去。

要执行gdb的dump须要先晓得一个地址范畴,通过smaps能够输入过程应用的内存块详细信息,包含地址范畴和起源

cat /proc/<pid>/smaps > smaps.txt

查看smaps.txt,找到有问题的内存块地址,比方下图中的 7fb9b0000000-7fb9b3ffe000

启动gdb

gdb attach <pid>

dump指定内存地址到指定的目录下,参数的地址须要在smaps拿到地址前加上0x

dump memory /tmp/0x7fb9b0000000-0x7fb9b3ffe000.dump 0x7fb9b0000000 0x7fb9b3ffe000

显示长度超过10字符的字符串

strings -10 /tmp/0x7fb9b0000000-0x7fb9b3ffe000.dump

发现外面有大量的图中红框中的内容,这个内容是后端给前端websocket推送的内容,怎么会驻留在堆外内存外面呢?查看了我的项目代码发现,后端的websocket是应用的netty-socketio实现的,maven依赖为

<dependency> <groupId>com.corundumstudio.socketio</groupId> <artifactId>netty-socketio</artifactId> <version>1.7.12</version></dependency>

这是一个开源的socket.io的一个java实现框架,具体能够看
https://github.com/mrniko/netty-socketio

看了下最近的版本公布日志,发现这个框架的最新版本曾经是1.7.18,而且两头公布的几个版本屡次修复了内存透露相干的问题

于是把依赖版本升级到最新版,从新公布后,第二天在看,发现RES还是变得很高

两头又认真看了应用框架的相干代码,发现断开连接的时候没有调用leaveRoom办法,而是调用了joinRoom,导致群发信息的时候还会往断开的连贯外面发送数据(实践上会报错,然而没有看到过相干日志),修复代码后又从新公布了一版,跑了一天在看,仍然没有成果。

论断

到这一步能够确认的是内存透露的问题必定跟这个websocket及相干性能无关的(因为两头降级到1.7.18发现websocket连不上了,起初降到了1.7.17,期间有较长的工夫是没有裸露websocket服务的,而正好这段时间的RES是十分稳固的,齐全没有上涨的趋势,因为这个性能点比拟小,用户没有什么感知),最初,通过跟产品方面沟通,决定把这里的websocet去掉,改为前端间接申请接口获取数据,因为这里的性能就是为了实时推送一个未读信息数量,而这个信息其实很少有用户关怀,所以,就改成刷新页面的时候查问一下就行了,就这样,问题算是变相解决了????。

总结

尽管进过不懈的致力,最终只是证实了【没有需要就没有BUG】这句话,然而两头还是有挺多的播种的,很多命令也是第一次应用,其实两头还有一些波折,就没有一一写进去了,筛选了比拟有价值的写了这篇文章总结,心愿能够分享给有须要的人,当前遇到相似问题,能够做个教训参考。

感激

这次排查问题从网上查找学习了很多材料,非常感谢以下文章作者分享的教训

  • 一次 Java 过程 OOM 的排查剖析(glibc 篇)
  • JAVA堆外内存排查小结
  • Linux中应用gdb dump内存