关于java:这是一篇来源于阿里内部技术论坛的文章

42次阅读

共计 6587 个字符,预计需要花费 17 分钟才能阅读完成。

这是一篇来源于阿里外部技术论坛的文章,原文在阿里外部取得统一好评。作者曾经把这篇文章凋谢到云栖社区中供外网拜访。Hollis 对文章内容做了局部删减,次要删减掉了其中只有阿里外部能力应用的工具的介绍,并删减掉局部只有通过阿里内网能力拜访到的链接。

前言

平时的工作中常常碰到很多疑难问题的解决,在解决问题的同时,有一些工具起到了相当大的作用,在此书写下来,一是作为笔记,能够让本人后续遗记了可疾速翻阅,二是分享,心愿看到此文的同学们能够拿出本人日常感觉帮忙很大的工具,大家一起提高。

闲话不多说,开搞。

Linux 命令类
tail
最罕用的 tail -f

tail -300f shopbase.log 

grep

grep forest f.txt     
grep forest f.txt cpf.txt 
grep 'log' /home/admin -r -n 
cat f.txt | grep -i shopbase    
grep 'shopbase' /home/admin -r -n --include *.{vm,java} 
grep 'shopbase' /home/admin -r -n --exclude *.{vm,java} 
seq 10 | grep 5 -A 3    
seq 10 | grep 5 -B 3    
seq 10 | grep 5 -C 3    
cat f.txt | grep -c 'SHOPBASE'

awk
1 根底命令

awk '{print $4,$6}' f.txt
awk '{print NR,$0}' f.txt cpf.txt    
awk '{print FNR,$0}' f.txt cpf.txt
awk '{print FNR,FILENAME,$0}' f.txt cpf.txt
awk '{print FILENAME,"NR="NR,"FNR="FNR,"$"NF"="$NF}' f.txt cpf.txt
echo 1:2:3:4 | awk -F: '{print $1,$2,$3,$4}'

2 匹配

awk '/ldb/ {print}' f.txt   
awk '!/ldb/ {print}' f.txt  
awk '/ldb/ && /LISTEN/ {print}' f.txt   
awk '$5 ~ /ldb/ {print}' f.txt 

3 内建变量

NR:NR 示意从 awk 开始执行后,依照记录分隔符读取的数据次数,默认的记录分隔符为换行符,因而默认的就是读取的数据行数,NR 能够了解为 Number of Record 的缩写。

FNR: 在 awk 解决多个输出文件的时候,在解决完第一个文件后,NR 并不会从 1 开始,而是持续累加,因而就呈现了 FNR,每当解决一个新文件的时候,FNR 就从 1 开始计数,FNR 能够了解为 File Number of Record。

NF: NF 示意目前的记录被宰割的字段的数目,NF 能够了解为 Number of Field。

find

sudo -u admin find /home/admin /tmp /usr -name \*.log(多个目录去找)
find . -iname \*.txt(大小写都匹配)
find . -type d(当前目录下的所有子目录)
find /usr -type l(当前目录下所有的符号链接)
find /usr -type l -name "z*" -ls(符号链接的详细信息 eg:inode, 目录)
find /home/admin -size +250000k(超过 250000k 的文件,当然 + 改成 - 就是小于了)
find /home/admin f -perm 777 -exec ls -l {} \; (依照权限查问文件)
find /home/admin -atime -1  1 天内拜访过的文件
find /home/admin -ctime -1  1 天内状态扭转过的文件    
find /home/admin -mtime -1  1 天内批改过的文件
find /home/admin -amin -1  1 分钟内拜访过的文件
find /home/admin -cmin -1  1 分钟内状态扭转过的文件    
find /home/admin -mmin -1  1 分钟内批改过的文件

pgm
批量查问 vm-shopbase 满足条件的日志

pgm -A -f vm-shopbase 'cat /home/admin/shopbase/logs/shopbase.log.2017-01-17|grep 2069861630'

tsar
tsar 是咱公司本人的采集工具。很好用, 将历史收集到的数据长久化在磁盘上,所以咱们疾速来查问历史的零碎数据。当然实时的利用状况也是能够查问的啦。大部分机器上都有装置。

tsar  

tsar --live 

tsar -d 20161218 

tsar --mem
tsar --load
tsar --cpu




top
top 除了看一些根本信息之外,剩下的就是配合来查问 vm 的各种问题了

ps -ef | grep java
top -H -p pid

取得线程 10 进制转 16 进制后 jstack 去抓看这个线程到底在干啥

其余

netstat -nat|awk  '{print $6}'|sort|uniq -c|sort -rn 


排查利器

btrace
首当其冲的要说的是 btrace。真是生产环境 & 预发的排查问题大杀器。简介什么的就不说了。间接上代码干

1、查看以后谁调用了 ArrayList 的 add 办法,同时只打印以后 ArrayList 的 size 大于 500 的线程调用栈

@OnMethod(clazz = "java.util.ArrayList", method="add", location = @Location(value = Kind.CALL, clazz = "/.*/", method = "/.*/"))
public static void m(@ProbeClassName String probeClass, @ProbeMethodName String probeMethod, @TargetInstance Object instance, @TargetMethodOrField String method) {if(getInt(field("java.util.ArrayList", "size"), instance) > 479){println("check who ArrayList.add method:" + probeClass + "#" + probeMethod  + ", method:" + method + ", size:" + getInt(field("java.util.ArrayList", "size"), instance));
       jstack();
       println();
       println("===========================");
       println();}
}

2、监控以后服务办法被调用时返回的值以及申请的参数

@OnMethod(clazz = "com.taobao.sellerhome.transfer.biz.impl.C2CApplyerServiceImpl", method="nav", location = @Location(value = Kind.RETURN))
public static void mt(long userId, int current, int relation, String check, String redirectUrl, @Return AnyType result) {println("parameter# userId:" + userId + ", current:" + current + ", relation:" + relation + ", check:" + check + ", redirectUrl:" + redirectUrl + ", result:" + result);
}

更多内容,感兴趣的请移步:https://github.com/btraceio/b…

留神:

  • 通过察看,1.3.9 的 release 输入不稳固,要多触发几次能力看到正确的后果
  • 正则表达式匹配 trace 类时范畴肯定要管制,否则极有可能呈现跑满 CPU 导致利用卡死的状况
  • 因为是字节码注入的原理,想要利用复原到失常状况,须要重启利用。

Greys
说几个挺棒的性能(局部性能和 btrace 重合):

sc -df xxx: 输入以后类的详情, 包含源码地位和 classloader 构造

trace class method: 相当喜爱这个性能! 很早前能够早 JProfiler 看到这个性能。打印出以后办法调用的耗时状况,细分到每个办法。

javOSize
就说一个性能
classes:通过批改了字节码,扭转了类的内容,即时失效。所以能够做到疾速的在某个中央打个日志看看输入,毛病是对代码的侵入性太大。然而如果本人晓得本人在干嘛,确实是不错的玩意儿。

其余性能 Greys 和 btrace 都能很轻易做的到,不说了。

JProfiler
之前判断许多问题要通过 JProfiler,然而当初 Greys 和 btrace 根本都能搞定了。再加上出问题的基本上都是生产环境 (网络隔离),所以根本不怎么应用了,然而还是要标记一下。
官网请移步 https://www.ej-technologies.c…

大杀器

eclipseMAT
可作为 eclipse 的插件,也可作为独自的程序关上。
详情请移步 http://www.eclipse.org/mat/

java 三板斧,噢不对,是七把

jps
我只用一条命令:

sudo -u admin /opt/taobao/java/bin/jps -mlvV


jstack
一般用法:

sudo -u admin /opt/taobao/install/ajdk-8_1_1_fp1-b52/bin/jstack 2815


native+java 栈:

sudo -u admin /opt/taobao/install/ajdk-8_1_1_fp1-b52/bin/jstack -m 2815

jinfo
可看系统启动的参数,如下

sudo -u admin /opt/taobao/install/ajdk-8_1_1_fp1-b52/bin/jinfo -flags 2815


jmap
两个用处

1. 查看堆的状况

sudo -u admin /opt/taobao/install/ajdk-8_1_1_fp1-b52/bin/jmap -heap 2815



2.dump

sudo -u admin /opt/taobao/install/ajdk-8_1_1_fp1-b52/bin/jmap -dump:live,format=b,file=/tmp/heap2.bin 2815

或者

sudo -u admin /opt/taobao/install/ajdk-8_1_1_fp1-b52/bin/jmap -dump:format=b,file=/tmp/heap3.bin 2815

3. 看看堆都被谁占了? 再配合 zprofiler 和 btrace,排查问题几乎是锦上添花

sudo -u admin /opt/taobao/install/ajdk-8_1_1_fp1-b52/bin/jmap -histo 2815 | head -10


jstat
jstat 参数泛滥,然而应用一个就够了

sudo -u admin /opt/taobao/install/ajdk-8_1_1_fp1-b52/bin/jstat -gcutil 2815 1000 

jdb
时至今日,jdb 也是常常应用的。
jdb 能够用来预发 debug, 假如你预发的 java_home 是 /opt/taobao/java/,近程调试端口是 8000. 那么
sudo -u admin /opt/taobao/java/bin/jdb -attach 8000.

呈现以上代表 jdb 启动胜利。后续能够进行设置断点进行调试。
具体参数可见 oracle 官网阐明 http://docs.oracle.com/javase…

CHLSDB
CHLSDB 感觉很多状况下能够看到更好玩的货色,不具体叙述了。查问材料据说 jstack 和 jmap 等工具就是基于它的。

sudo -u admin /opt/taobao/java/bin/java -classpath /opt/taobao/java/lib/sa-jdi.jar sun.jvm.hotspot.CLHSDB

更具体的可见 R 大此贴
http://rednaxelafx.iteye.com/…

VM options

1、你的类到底是从哪个文件加载进来的?

-XX:+TraceClassLoading
后果形如[Loaded java.lang.invoke.MethodHandleImpl$Lazy from D:\programme\jdk\jdk8U74\jre\lib\rt.jar]

2、利用挂了输入 dump 文件

-XX:+HeapDumpOnOutOfMemoryError -XX:HeapDumpPath=/home/admin/logs/java.hprof

jar 包抵触

把这个独自写个大题目不过分吧?每个人或多或少都解决过这种烦人的 case。我特么下边这么多计划不信就搞不定你?

mvn dependency:tree > ~/dependency.txt

打出所有依赖

mvn dependency:tree -Dverbose -Dincludes=groupId:artifactId

只打出指定 groupId 和 artifactId 的依赖关系

-XX:+TraceClassLoading

vm 启动脚本退出。在 tomcat 启动脚本中可见加载类的详细信息

-verbose

vm 启动脚本退出。在 tomcat 启动脚本中可见加载类的详细信息

greys:sc

greys 的 sc 命令也能清晰的看到以后类是从哪里加载过去的

tomcat-classloader-locate

通过以下 url 能够获知以后类是从哪里加载的
curl http://localhost:8006/classloader/locate?class=org.apache.xerces.xs.XSObjec

其余

dmesg

如果发现自己的 java 过程悄无声息的隐没了,简直没有留下任何线索,那么 dmesg 一发,很有可能有你想要的。

sudo dmesg|grep -i kill|less

去找关键字 oom_killer。找到的后果相似如下:

[6710782.021013] java invoked oom-killer: gfp_mask=0xd0, order=0, oom_adj=0, oom_scoe_adj=0
[6710782.070639] [] ? oom_kill_process+0x68/0x140 
[6710782.257588] Task in /LXC011175068174 killed as a result of limit of /LXC011175068174 
[6710784.698347] Memory cgroup out of memory: Kill process 215701 (java) score 854 or sacrifice child 
[6710784.707978] Killed process 215701, UID 679, (java) total-vm:11017300kB, anon-rss:7152432kB, file-rss:1232kB

以上表明,对应的 java 过程被零碎的 OOM Killer 给干掉了,得分为 854.
解释一下 OOM killer(Out-Of-Memory killer),该机制会监控机器的内存资源耗费。当机器内存耗尽前,该机制会扫描所有的过程(依照肯定规定计算,内存占用,工夫等),挑选出得分最高的过程,而后杀死,从而爱护机器。

dmesg 日志工夫转换公式:
log 理论工夫 = 格林威治 1970-01-01+(以后工夫秒数 - 系统启动至今的秒数 +dmesg 打印的 log 工夫)秒数:

date -d "1970-01-01 UTC `echo"$(date +%s)-$(cat /proc/uptime|cut -f 1 -d'')+12288812.926194"|bc ` seconds"

剩下的,就是看看为什么内存这么大,触发了 OOM-Killer 了。

新技能 get

RateLimiter
想要精密的管制 QPS? 比方这样一个场景,你调用某个接口,对方明确须要你限度你的 QPS 在 400 之内你怎么管制?这个时候 RateLimiter 就有了用武之地。详情可移步 http://ifeve.com/guava-rateli…

关注公众号:java 宝典

正文完
 0