共计 6587 个字符,预计需要花费 17 分钟才能阅读完成。
这是一篇来源于阿里外部技术论坛的文章,原文在阿里外部取得统一好评。作者曾经把这篇文章凋谢到云栖社区中供外网拜访。Hollis 对文章内容做了局部删减,次要删减掉了其中只有阿里外部能力应用的工具的介绍,并删减掉局部只有通过阿里内网能力拜访到的链接。
前言
平时的工作中常常碰到很多疑难问题的解决,在解决问题的同时,有一些工具起到了相当大的作用,在此书写下来,一是作为笔记,能够让本人后续遗记了可疾速翻阅,二是分享,心愿看到此文的同学们能够拿出本人日常感觉帮忙很大的工具,大家一起提高。
闲话不多说,开搞。
Linux 命令类
tail
最罕用的 tail -f
tail -300f shopbase.log
grep
grep forest f.txt
grep forest f.txt cpf.txt
grep 'log' /home/admin -r -n
cat f.txt | grep -i shopbase
grep 'shopbase' /home/admin -r -n --include *.{vm,java}
grep 'shopbase' /home/admin -r -n --exclude *.{vm,java}
seq 10 | grep 5 -A 3
seq 10 | grep 5 -B 3
seq 10 | grep 5 -C 3
cat f.txt | grep -c 'SHOPBASE'
awk
1 根底命令
awk '{print $4,$6}' f.txt
awk '{print NR,$0}' f.txt cpf.txt
awk '{print FNR,$0}' f.txt cpf.txt
awk '{print FNR,FILENAME,$0}' f.txt cpf.txt
awk '{print FILENAME,"NR="NR,"FNR="FNR,"$"NF"="$NF}' f.txt cpf.txt
echo 1:2:3:4 | awk -F: '{print $1,$2,$3,$4}'
2 匹配
awk '/ldb/ {print}' f.txt
awk '!/ldb/ {print}' f.txt
awk '/ldb/ && /LISTEN/ {print}' f.txt
awk '$5 ~ /ldb/ {print}' f.txt
3 内建变量
NR:NR 示意从 awk 开始执行后,依照记录分隔符读取的数据次数,默认的记录分隔符为换行符,因而默认的就是读取的数据行数,NR 能够了解为 Number of Record 的缩写。
FNR: 在 awk 解决多个输出文件的时候,在解决完第一个文件后,NR 并不会从 1 开始,而是持续累加,因而就呈现了 FNR,每当解决一个新文件的时候,FNR 就从 1 开始计数,FNR 能够了解为 File Number of Record。
NF: NF 示意目前的记录被宰割的字段的数目,NF 能够了解为 Number of Field。
find
sudo -u admin find /home/admin /tmp /usr -name \*.log(多个目录去找)
find . -iname \*.txt(大小写都匹配)
find . -type d(当前目录下的所有子目录)
find /usr -type l(当前目录下所有的符号链接)
find /usr -type l -name "z*" -ls(符号链接的详细信息 eg:inode, 目录)
find /home/admin -size +250000k(超过 250000k 的文件,当然 + 改成 - 就是小于了)
find /home/admin f -perm 777 -exec ls -l {} \; (依照权限查问文件)
find /home/admin -atime -1 1 天内拜访过的文件
find /home/admin -ctime -1 1 天内状态扭转过的文件
find /home/admin -mtime -1 1 天内批改过的文件
find /home/admin -amin -1 1 分钟内拜访过的文件
find /home/admin -cmin -1 1 分钟内状态扭转过的文件
find /home/admin -mmin -1 1 分钟内批改过的文件
pgm
批量查问 vm-shopbase 满足条件的日志
pgm -A -f vm-shopbase 'cat /home/admin/shopbase/logs/shopbase.log.2017-01-17|grep 2069861630'
tsar
tsar 是咱公司本人的采集工具。很好用, 将历史收集到的数据长久化在磁盘上,所以咱们疾速来查问历史的零碎数据。当然实时的利用状况也是能够查问的啦。大部分机器上都有装置。
tsar
tsar --live
tsar -d 20161218
tsar --mem
tsar --load
tsar --cpu
top
top 除了看一些根本信息之外,剩下的就是配合来查问 vm 的各种问题了
ps -ef | grep java
top -H -p pid
取得线程 10 进制转 16 进制后 jstack 去抓看这个线程到底在干啥
其余
netstat -nat|awk '{print $6}'|sort|uniq -c|sort -rn
排查利器
btrace
首当其冲的要说的是 btrace。真是生产环境 & 预发的排查问题大杀器。简介什么的就不说了。间接上代码干
1、查看以后谁调用了 ArrayList 的 add 办法,同时只打印以后 ArrayList 的 size 大于 500 的线程调用栈
@OnMethod(clazz = "java.util.ArrayList", method="add", location = @Location(value = Kind.CALL, clazz = "/.*/", method = "/.*/"))
public static void m(@ProbeClassName String probeClass, @ProbeMethodName String probeMethod, @TargetInstance Object instance, @TargetMethodOrField String method) {if(getInt(field("java.util.ArrayList", "size"), instance) > 479){println("check who ArrayList.add method:" + probeClass + "#" + probeMethod + ", method:" + method + ", size:" + getInt(field("java.util.ArrayList", "size"), instance));
jstack();
println();
println("===========================");
println();}
}
2、监控以后服务办法被调用时返回的值以及申请的参数
@OnMethod(clazz = "com.taobao.sellerhome.transfer.biz.impl.C2CApplyerServiceImpl", method="nav", location = @Location(value = Kind.RETURN))
public static void mt(long userId, int current, int relation, String check, String redirectUrl, @Return AnyType result) {println("parameter# userId:" + userId + ", current:" + current + ", relation:" + relation + ", check:" + check + ", redirectUrl:" + redirectUrl + ", result:" + result);
}
更多内容,感兴趣的请移步:https://github.com/btraceio/b…
留神:
- 通过察看,1.3.9 的 release 输入不稳固,要多触发几次能力看到正确的后果
- 正则表达式匹配 trace 类时范畴肯定要管制,否则极有可能呈现跑满 CPU 导致利用卡死的状况
- 因为是字节码注入的原理,想要利用复原到失常状况,须要重启利用。
Greys
说几个挺棒的性能(局部性能和 btrace 重合):
sc -df xxx: 输入以后类的详情, 包含源码地位和 classloader 构造
trace class method: 相当喜爱这个性能! 很早前能够早 JProfiler 看到这个性能。打印出以后办法调用的耗时状况,细分到每个办法。
javOSize
就说一个性能
classes:通过批改了字节码,扭转了类的内容,即时失效。所以能够做到疾速的在某个中央打个日志看看输入,毛病是对代码的侵入性太大。然而如果本人晓得本人在干嘛,确实是不错的玩意儿。
其余性能 Greys 和 btrace 都能很轻易做的到,不说了。
JProfiler
之前判断许多问题要通过 JProfiler,然而当初 Greys 和 btrace 根本都能搞定了。再加上出问题的基本上都是生产环境 (网络隔离),所以根本不怎么应用了,然而还是要标记一下。
官网请移步 https://www.ej-technologies.c…
大杀器
eclipseMAT
可作为 eclipse 的插件,也可作为独自的程序关上。
详情请移步 http://www.eclipse.org/mat/
java 三板斧,噢不对,是七把
jps
我只用一条命令:
sudo -u admin /opt/taobao/java/bin/jps -mlvV
jstack
一般用法:
sudo -u admin /opt/taobao/install/ajdk-8_1_1_fp1-b52/bin/jstack 2815
native+java 栈:
sudo -u admin /opt/taobao/install/ajdk-8_1_1_fp1-b52/bin/jstack -m 2815
jinfo
可看系统启动的参数,如下
sudo -u admin /opt/taobao/install/ajdk-8_1_1_fp1-b52/bin/jinfo -flags 2815
jmap
两个用处
1. 查看堆的状况
sudo -u admin /opt/taobao/install/ajdk-8_1_1_fp1-b52/bin/jmap -heap 2815
2.dump
sudo -u admin /opt/taobao/install/ajdk-8_1_1_fp1-b52/bin/jmap -dump:live,format=b,file=/tmp/heap2.bin 2815
或者
sudo -u admin /opt/taobao/install/ajdk-8_1_1_fp1-b52/bin/jmap -dump:format=b,file=/tmp/heap3.bin 2815
3. 看看堆都被谁占了? 再配合 zprofiler 和 btrace,排查问题几乎是锦上添花
sudo -u admin /opt/taobao/install/ajdk-8_1_1_fp1-b52/bin/jmap -histo 2815 | head -10
jstat
jstat 参数泛滥,然而应用一个就够了
sudo -u admin /opt/taobao/install/ajdk-8_1_1_fp1-b52/bin/jstat -gcutil 2815 1000
jdb
时至今日,jdb 也是常常应用的。
jdb 能够用来预发 debug, 假如你预发的 java_home 是 /opt/taobao/java/,近程调试端口是 8000. 那么
sudo -u admin /opt/taobao/java/bin/jdb -attach 8000.
呈现以上代表 jdb 启动胜利。后续能够进行设置断点进行调试。
具体参数可见 oracle 官网阐明 http://docs.oracle.com/javase…
CHLSDB
CHLSDB 感觉很多状况下能够看到更好玩的货色,不具体叙述了。查问材料据说 jstack 和 jmap 等工具就是基于它的。
sudo -u admin /opt/taobao/java/bin/java -classpath /opt/taobao/java/lib/sa-jdi.jar sun.jvm.hotspot.CLHSDB
更具体的可见 R 大此贴
http://rednaxelafx.iteye.com/…
VM options
1、你的类到底是从哪个文件加载进来的?
-XX:+TraceClassLoading
后果形如[Loaded java.lang.invoke.MethodHandleImpl$Lazy from D:\programme\jdk\jdk8U74\jre\lib\rt.jar]
2、利用挂了输入 dump 文件
-XX:+HeapDumpOnOutOfMemoryError -XX:HeapDumpPath=/home/admin/logs/java.hprof
jar 包抵触
把这个独自写个大题目不过分吧?每个人或多或少都解决过这种烦人的 case。我特么下边这么多计划不信就搞不定你?
mvn dependency:tree > ~/dependency.txt
打出所有依赖
mvn dependency:tree -Dverbose -Dincludes=groupId:artifactId
只打出指定 groupId 和 artifactId 的依赖关系
-XX:+TraceClassLoading
vm 启动脚本退出。在 tomcat 启动脚本中可见加载类的详细信息
-verbose
vm 启动脚本退出。在 tomcat 启动脚本中可见加载类的详细信息
greys:sc
greys 的 sc 命令也能清晰的看到以后类是从哪里加载过去的
tomcat-classloader-locate
通过以下 url 能够获知以后类是从哪里加载的
curl http://localhost:8006/classloader/locate?class=org.apache.xerces.xs.XSObjec
其余
dmesg
如果发现自己的 java 过程悄无声息的隐没了,简直没有留下任何线索,那么 dmesg 一发,很有可能有你想要的。
sudo dmesg|grep -i kill|less
去找关键字 oom_killer。找到的后果相似如下:
[6710782.021013] java invoked oom-killer: gfp_mask=0xd0, order=0, oom_adj=0, oom_scoe_adj=0
[6710782.070639] [] ? oom_kill_process+0x68/0x140
[6710782.257588] Task in /LXC011175068174 killed as a result of limit of /LXC011175068174
[6710784.698347] Memory cgroup out of memory: Kill process 215701 (java) score 854 or sacrifice child
[6710784.707978] Killed process 215701, UID 679, (java) total-vm:11017300kB, anon-rss:7152432kB, file-rss:1232kB
以上表明,对应的 java 过程被零碎的 OOM Killer 给干掉了,得分为 854.
解释一下 OOM killer(Out-Of-Memory killer),该机制会监控机器的内存资源耗费。当机器内存耗尽前,该机制会扫描所有的过程(依照肯定规定计算,内存占用,工夫等),挑选出得分最高的过程,而后杀死,从而爱护机器。
dmesg 日志工夫转换公式:
log 理论工夫 = 格林威治 1970-01-01+(以后工夫秒数 - 系统启动至今的秒数 +dmesg 打印的 log 工夫)秒数:
date -d "1970-01-01 UTC `echo"$(date +%s)-$(cat /proc/uptime|cut -f 1 -d'')+12288812.926194"|bc ` seconds"
剩下的,就是看看为什么内存这么大,触发了 OOM-Killer 了。
新技能 get
RateLimiter
想要精密的管制 QPS? 比方这样一个场景,你调用某个接口,对方明确须要你限度你的 QPS 在 400 之内你怎么管制?这个时候 RateLimiter 就有了用武之地。详情可移步 http://ifeve.com/guava-rateli…
关注公众号:java 宝典