共计 6884 个字符,预计需要花费 18 分钟才能阅读完成。
引言
我前几天写过的性能工具之 linux 三剑客 awk、grep、sed 详解,咱们曾经具体介绍 linux 三剑客的根本应用,接下来咱们看看具体在性能测试畛域的使用,本文次要介绍的是在 Tomcat 和 Nginx access 日志的统计分析。
Tomcat 统计申请响应工夫
server.xml 应用配置形式,%D- 申请工夫,%F 响应工夫
<Valve
className
=
“org.apache.catalina.valves.AccessLogValve”
directory
=
“logs”
prefix
=
“localhost_access_log.”
suffix
=
“.txt”
pattern
=
“%h %l %u [%{yyyy-MM-dd HH:mm:ss}t] %{X-Real_IP}i “%r” %s %b %D %F”
/>
字段阐明如下:
%h – 发动申请的客户端 IP 地址。这里记录的 IP 地址并不一定是实在用户客户机的 IP 地址,它可能是私网客户端的公网映射地址或代理服务器地址。
%l – 客户机的 RFC 1413 标识 (参考),只有实现了 RFC 1413 标准的客户端,能力提供此信息。
%u – 近程客户端用户名称,用于记录浏览者进行身份验证时提供的名字,如登录百度的用户名 zuozewei,如果没有登录就是空白。
%t – 收到申请的工夫(拜访的工夫与时区,比方 18/Jul/2018:17:00:01+0800,工夫信息最初的 “+0800” 示意服务器所处时区位于 UTC 之后的 8 小时)
%{X-Real_IP}i – 客户端的实在 ip
%r – 来自客户端的申请行(申请的 URI 和 HTTP 协定,这是整个 PV 日志记录中最有用的信息,记录服务器收到一个什么样的申请)
%>s – 服务器返回客户端的状态码,比方胜利是 200。
%b – 发送给客户端的文件主体内容的大小,不包含响应头的大小(能够将日志每条记录中的这个值累加起来以粗略预计服务器吞吐量)
%D – 解决申请的工夫,以毫秒为单位
%F – 客户端浏览器信息提交响应的工夫,以毫秒为单位
日志样例:
47.203
.
89.212
–
–
[
19
/
Apr
/
2017
:
03
:
06
:
53
+
0000
]
“GET / HTTP/1.1”
200
10599
50
49
Nginx 统计申请和后盾服务响应工夫
应用默认 combined 的经典格局上扩大 response_time&upstream_response_time
nginx.conf 应用配置形式:
log_format main
‘$remote_addr – $remote_user [$time_local] “$request” $status $body_bytes_sent $request_time $upstream_response_time “$http_referer” “$http_user_agent” “$http_x_forwarded_for”‘
;
字段阐明如下:
$remote_addr – 发动申请的客户端 IP 地址。这里记录的 IP 地址并不一定是实在用户客户机的 IP 地址,它可能是私网客户端的公网映射地址或代理服务器地址。
$remote_user – 近程客户端用户名称,用于记录浏览者进行身份验证时提供的名字,如登录百度的用户名 zuozewei,如果没有登录就是空白。
[$time_local] – 收到申请的工夫(拜访的工夫与时区,比方 18/Jul/2018:17:00:01+0800,工夫信息最初的 “+0800” 示意服务器所处时区位于 UTC 之后的 8 小时)
“$request”– 来自客户端的申请行(申请的 URI 和 HTTP 协定,这是整个 PV 日志记录中最有用的信息,记录服务器收到一个什么样的申请)
$status – 服务器返回客户端的状态码,比方胜利是 200。
$body_bytes_sent – 发送给客户端的文件主体内容的大小,不包含响应头的大小(能够将日志每条记录中的这个值累加起来以粗略预计服务器吞吐量)
$request_time – 整个申请的总工夫,以秒为单位(包含接管客户端申请数据的工夫、后端程序响应的工夫、发送响应数据给客户端的工夫 (不蕴含写日志的工夫))
$upstream_response_time – 申请过程中,upstream 的响应工夫, 以秒为单位(向后端建设连贯开始到承受完数据而后敞开连贯为止的工夫)
“$http_referer”– 记录从哪个页面链接拜访过去的(申请头 Referer 的内容)
“$http_user_agent”– 客户端浏览器信息(申请头 User-Agent 的内容)
“$ http_x_forwarded_for”– 客户端的实在 ip,通常 web 服务器放在反向代理的前面,这样就不能获取到客户的 IP 地址了,通过 $remote_add 拿到的 IP 地址是反向代理服务器的 iP 地址。反向代理服务器在转发申请的 http 头信息中,能够减少 x_forwarded_for** 信息,用以记录原有客户端的 IP 地址和原来客户端的申请的服务器地址。
日志示例:
218.56
.
42.148
–
–
[
19
/
Apr
/
2017
:
01
:
58
:
04
+
0000
]
“GET / HTTP/1.1”
200
0
0.023
–
“-“
“Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/57.0.2987.133 Safari/537.36”
“-“
AWK 使用
为了能了解 AWK 程序,咱们上面简略概述其基本知识,具体内容参照上文。
AWK 程序能够由一行或多行文本形成,其中外围局部是蕴含一个模式和动作的组合。
pattern
{
action
}
模式(pattern) 用于匹配输出中的每行文本。对于匹配上的每行文本,awk 都执行对应的 动作(action)。模式和动作之间应用花括号隔开。awk 程序扫描每一行文本,并应用 记录分隔符(个别是换行符)将读到的每一行作为 记录,应用 域分隔符(个别是空格符或制表符) 将一行文本宰割为多个 域,每个域别离能够应用 $1, $2, … $n 示意。$1 示意第一个域,$2 示意第二个域,$n 示意第 n 个域。$0 示意整个记录。模式或动作都能够不指定,缺省模式的状况下,将匹配所有行。缺省动作的状况下,将执行动作 {print},即打印整个记录。
此处应用 Nginx access.log 举例,Tomcat 同学们本人触类旁通。
应用 awk 合成出 Nginx access 日志中的信息
218.56
.
42.148
–
–
[
19
/
Apr
/
2017
:
01
:
58
:
04
+
0000
]
“GET / HTTP/1.1”
200
0
0.023
–
“-“
“Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/57.0.2987.133 Safari/537.36”
“-“
$0 就是整个记录行
$1 就是拜访 IP”218.56.42.148”
$4 就是申请工夫的前半部分“[19/Apr/2017:01:58:04”
$5 就是申请工夫的后半局部“+0000]”
以此类推……
当咱们应用默认的域宰割符时,咱们能够从日志中解析出上面不同类型的信息:
awk
‘{print $1}’
access
.
log
IP 地址 ($remote_addr)
awk
‘{print $3}’
access
.
log
用户名称 $remote_user)
awk
‘{print $4,$5}’
access
.
log
日期和工夫 ([$time_local])
awk
‘{print $7}’
access _log
URI ($request)
awk
‘{print $9}’
access _log
状态码 ($status)
awk
‘{print $10}’
access _log
响应大小 ($body_bytes_sent)
awk
‘{print $11}’
access _log
申请工夫 ($request_time)
awk
‘{print $12}’
access _log
upstream 响应工夫 ($upstream_response_time)
咱们不难发现,仅应用默认的域分隔符,不不便解析出申请行、援用页和浏览器类型等其余信息,因为这些信息之中蕴含不确定个数的空格。因而,咱们须要把域分隔符批改为“,就可能轻松读出这些信息。
awk
–
F\”
‘{print $2}’
access
.
log
申请行 ($request)
awk
–
F\”
‘{print $4}’
access
.
log
援用页 ($http_referer)
awk
–
F\”
‘{print $6}’
access
.
log
浏览器 ($http_user_agent)
awk
–
F\”
‘{print $8}’
access
.
log
实在 ip ($http_x_forwarded_for)
留神:这里为了防止 Linux Shell 误会“为字符串开始,咱们应用了反斜杠,本义了“。当初,咱们曾经把握了 awk 的基本知识,以及它是怎么解析日志的。
应用场景举例
此处应用 Nginx access.log 举例,Tomcat 同学们本人触类旁通
浏览器类型统计
如果咱们想晓得那些类型的浏览器拜访过网站,并按呈现的次数倒序排列,我能够应用上面的命令:
awk
–
F\”
‘{print $6}’
access
.
log
|
sort
|
uniq
–
c
|
sort
–
fr
此命令行首先解析出浏览器域,而后应用管道将输入作为第一个 sort 命令的输出。第一个 sort 命令次要是为了不便 uniq 命令统计出不同浏览器呈现的次数。最初一个 sort 命令将把之前的统计后果倒序排列并输入。
发现零碎存在的问题
咱们能够应用上面的命令行,统计服务器返回的状态码,发现零碎可能存在的问题。
awk
‘{print $9}’
access
.
log
|
sort
|
uniq
–
c
|
sort
失常状况下,状态码 200 或 30x 应该是呈现次数最多的。40x 个别示意客户端拜访问题。50x 个别示意服务器端问题。上面是一些常见的状态码:
200 – 申请已胜利,申请所心愿的响应头或数据体将随此响应返回。
206 – 服务器曾经胜利解决了局部 GET 申请
301 – 被申请的资源已永恒挪动到新地位
302 – 申请的资源当初长期从不同的 URI 响应申请
400 – 谬误的申请。以后申请无奈被服务器了解
401 – 申请未受权,以后申请须要用户验证。
403 – 禁止拜访。服务器曾经了解申请,然而拒绝执行它。
404 – 文件不存在,资源在服务器上未被发现。
500 – 服务器遇到了一个未曾意料的情况,导致了它无奈实现对申请的解决。
503 – 因为长期的服务器保护或者过载,服务器以后无奈解决申请。
HTTP 协定状态码定义能够参阅:https://www.w3.org/Protocols/rfc2616/rfc2616.html
状态码相干统计
查找并显示所有状态码为 404 的申请
awk
‘($9 ~ /404/)’
access
.
log
统计所有状态码为 404 的申请
awk
‘($9 ~ /404/)’
access
.
log
|
awk
‘{print $9,$7}’
|
sort
当初咱们假如某个申请 (例如 : URI: /path/to/notfound) 产生了大量的 404 谬误,咱们能够通过上面的命令找到这个申请是来自于哪一个援用页,和来自于什么浏览器。
awk
–
F\”
‘($2 ~ “^GET /path/to/notfound “){print $4,$6}’
access
.
log
追究谁在盗链网站图片
有时候会发现其余网站出于某种原因,在他们的网站上应用保留在本人网站上的图片。如果您想晓得到底是谁未经受权应用本人网站上的图片,咱们能够应用上面的命令:
awk
–
F\”
‘($2 ~ /\.(jpg|gif|png)/ && $4 !~ /^http://www.example.com/)\
{print $4}’
access
.
log \
|
sort
|
uniq
–
c
|
sort
留神:应用前,将 www.example.com 批改为本人网站的域名。
应用”合成每一行;
申请行中必须包含“.jpg”、”.gif”或”.png”;
援用页不是以您的网站域名字符串开始(在此例中,即 www.example.com);
显示出所有援用页,并统计呈现的次数。
IP 相干统计
统计共有多少个不同的 IP 拜访:
awk
‘{print $1}’
access
.
log
|
sort
|
uniq
|
wc
–
l
统计每一个 IP 拜访了多少个页面:
awk
‘{++S[$1]} END {for (a in S) print a,S[a]}’
log_file
将每个 IP 拜访的页面数进行从小到大排序:
awk
‘{++S[$1]} END {for (a in S) print S[a],a}’
log_file
|
sort
–
n
统计 2018 年 8 月 31 日 14 时内有多少 IP 拜访 :
awk
‘{print $4,$1}’
access
.
log
|
grep
31
/
Aug
/
2018
:
14
|
awk
‘{print $2}’
|
sort
|
uniq
|
wc
–
l
统计拜访最多的前 10 个 IP 地址
awk
‘{print $1}’
access
.
log
|
sort
|
uniq
–
c
|
sort
–
nr
|
head
–
10
列出某 1 个 IP 拜访了哪些页面:
grep
^
202.106
.
19.100
access
.
log
|
awk
‘{print $1,$7}’
统计某个 IP 的具体拜访状况, 按拜访频率排序
grep
‘202.106.19.100’
access
.
log
|
awk
‘{print $7}’
|
sort
|
uniq
–
c
|
sort
–
rn
|
head
–
n
100
响应页面大小相干统计
列出传输大小最大的几个文件
cat access
.
log
|
awk
‘{print $10 ” ” $1 ” ” $4 ” ” $7}’
|
sort
–
nr
|
head
–
100
列出输入大于 204800 byte (200kb) 的页面以及对应页面产生次数
cat access
.
log
|
awk
‘($10 > 200000){print $7}’
|
sort
–
n
|
uniq
–
c
|
sort
–
nr
|
head
–
100
列出拜访最频的页面(TOP100)
awk
‘{print $7}’
access
.
log
|
sort
|
uniq
–
c
|
sort
–
rn
|
head
–
n
100
列出拜访最频的页面([排除 php 页面】(TOP100)
grep
–
v
“.php”
access
.
log
|
awk
‘{print $7}’
|
sort
|
uniq
–
c
|
sort
–
rn
|
head
–
n
100
列出页面拜访次数超过 100 次的页面
cat access
.
log
|
cut
–
d
‘ ‘
–
f
7
|
sort
|
uniq
–
c
|
awk
‘{if ($1 > 100) print $0}’
|
less
列出最近 1000 条记录,访问量最高的页面
tail
–
1000
access
.
log
|
awk
‘{print $7}’
|
sort
|
uniq
–
c
|
sort
–
nr
|
less
PV 相干统计
统计每分钟的申请数,top100 的工夫点(准确到分钟)
awk
‘{print $4}’
access
.
log
|
cut
–
c
14
–
18
|
sort
|
uniq
–
c
|
sort
–
nr
|
head
–
n
100
统计每小时的申请数,top100 的工夫点(准确到小时)
awk
‘{print $4}’
access
.
log
|
cut
–
c
14
–
15
|
sort
|
uniq
–
c
|
sort
–
nr
|
head
–
n
100
统计每秒的申请数,top100 的工夫点(准确到秒)
awk
‘{print $4}’
access
.
log
|
cut
–
c
14
–
21
|
sort
|
uniq
–
c
|
sort
–
nr
|
head
–
n
100
统计当天的 pv
grep
“10/May/2018”
access
.
log
|
wc
–
l
阐明:
awk‘{print $4}’:取数据的第 4 域(第 4 列)
sort:进行排序。
uniq -c:打印每一反复行呈现的次数。(并去掉反复行)
sort -nr:依照反复行呈现的秩序倒序排列。
head -n 100:取排在前 100 位的 IP
页面响应工夫相干统计
能够应用上面的命令统计出所有响应工夫超过 3 秒的日志记录。
awk
‘($NF > 1){print $11}’
access
.
log
留神:NF 是以后记录中域的个数。$NF 即最初一个域。
列出 php 页面申请工夫超过 3 秒的页面,并统计其呈现的次数,显示前 100 条
cat access
.
log
|
awk
‘($NF > 1 && $7~/.php/){print $7}’
|
sort
–
n
|
uniq
–
c
|
sort
–
nr
|
head
–
100
列出相应工夫超过 5 秒的申请,显示前 20 条
awk
‘($NF > 1){print $11}’
access
.
log
|
awk
–
F\”
‘{print $2}’
|
sort
–
n
|
uniq
–
c
|
sort
–
nr
|
head
–
20
蜘蛛抓取统计
统计蜘蛛抓取次数
grep
‘Baiduspider’
access
.
log
|
wc
–
l
统计蜘蛛抓取 404 的次数
grep
‘Baiduspider’
access
.
log
|
grep
‘404’
|
wc
–
l
小结
通过本文的介绍,我置信同学们肯定会发现 linux 三剑客弱小之处。在命令行中,它还可能承受和执行内部的 AWK 程序文件,反对对文本信息进行非常复杂的解决,能够说“只有想不到的,没有它做不到的”。