一:背景

1. 讲故事

前几天有位敌人wx求助,它的程序内存常常飙升,cpu 偶然飙升,没找到起因,心愿帮忙看一下。

惋惜发过来的 dump 只有区区2G,能在这外面找到内存溢出那真有两把刷子。。。,所以我还是心愿他的程序内存涨到 5G+ 的时候再给我看看,既然内存看不了,那就看看这个偶然飙升的CPU是个啥状况?老办法,上windbg谈话。

二: windbg 剖析

1. CPU 到底是多少

要想查看这个快照生成时机器的cpu使用率,能够应用 !tp 命令。

0:033> !tpCPU utilization: 93%Worker Thread: Total: 800 Running: 800 Idle: 0 MaxLimit: 800 MinLimit: 320Work Request in Queue: 3203    Unknown Function: 000007fefb551500  Context: 000000002a198480    Unknown Function: 000007fefb551500  Context: 0000000028a70780    Unknown Function: 000007fefb551500  Context: 000000002a182610    Unknown Function: 000007fefb551500  Context: 00000000262a2700    ...

本认为一个简略的命令,后果屏幕上呼啦啦的一堆。。。 有点意外,从下面的卦象看:以后CPU利用率是 93%,没故障,的确是CPU飙升,比拟诧异的是,线程池下限800个线程全副被打满,太悲壮了。。。可更悲壮的是线程池队列中还有 3203 个待处理的工作,能够猜想程序不仅高CPU,还有挂死景象。。。

接下来的问题是:这800个壮士到底怎么啦,程序当初正是用人之际,要想找出答案,还是依照我的惯性思维,查看同步块表。

2. 线程同步块表

要想查看同步块表,能够应用 !synblk 命令。

0:033> !syncblkIndex SyncBlock MonitorHeld Recursion Owning Thread Info  SyncBlock Owner  188 0000000010defc28            1         1 000000001e8fb400 9f4 715   00000003ff1e3d80 System.Web.HttpApplicationStateLock126159 000000001e424e28            1         1 0000000023425e00 1f14 695   0000000301210038 ASP.global_asax126173 00000000281acaf8            1         1 0000000024b8ea70 24ec 785   00000000ff8c5e10 ASP.global_asax126289 00000000247a4068            1         1 0000000027ee93c0 808 413   0000000306aca288 ASP.global_asax126368 0000000027180dd8            1         1 0000000028005cb0 1e7c 650   00000002008d6280 ASP.global_asax126489 0000000027211dd8            1         1 0000000026862420 ec4 220   000000030611a290 ASP.global_asax126788 00000000247924b8            1         1 0000000021871ff0 2784 529   00000004039901a8 ASP.global_asax126843 00000000285b8d28            1         1 000000001cbd6710 2170 456   00000004007ec748 ASP.global_asax126934 0000000021b212b8            1         1 0000000026ca7590 16cc 472   000000030090e810 ASP.global_asax127251 0000000024769188            1         1 000000002831eaf0 2b68 648   0000000207051038 ASP.global_asax...-----------------------------Total           141781CCW             2RCW             4ComClassFactory 0Free            140270

我去,又是呼啦啦的一堆,从下面的卦象能够看出两点信息:

  • MonitorHeld: 1

示意以后有一个线程正在持有锁。

  • ASP.global_asax , System.Web.HttpApplicationStateLock

示意以后线程持有的对象。

不过综合来看有点奇怪,除了第一个线程持有 HttpApplicationStateLock,前面所有的线程持有的 ASP.global_asax 对象都有不同的内存地址:0000000301210038,00000000ff8c5e10,感觉lock的对象不是线程共享式的 static,更像是一个 instance,蛮有意思的,接下来抽两个线程看看它的线程栈,比方这里的:715,695

3. 查看线程栈

要想查看线程栈,能够用 !clrstack 命令。


从这两个线程栈上看,别离是卡在 xxx.MvcApplication.Session_Start 办法中的 System.Threading.Monitor.Enter(System.Object)System.Threading.Monitor.ObjWait ,总的来说这里的 Session_Start 办法必定是有问题的,所以得想方法把源码导出来看一看。

4. 查看问题代码

要想导出 Session_Start 办法,应用组合命令 !ip2md + !savemodule 即可。

||2:2:1781> !ip2md 000007fe99c6f0c5MethodDesc:   000007fe990fe080Method Name:  xxx.xxx.xxx.MvcApplication.Session_Start(System.Object, System.EventArgs)Class:        000007fe991ae0c0MethodTable:  000007fe990fe238mdToken:      0000000006000119Module:       000007fe990fd750IsJitted:     yesCodeAddr:     000007fe99c6e1f0Transparency: Critical||2:2:1781> !savemodule 000007fe990fd750 E:\dumps\Session_Start.dll3 sections in filesection 0 - VA=2000, VASize=17538, FileAddr=200, FileSize=17600section 1 - VA=1a000, VASize=3ac, FileAddr=17800, FileSize=400section 2 - VA=1c000, VASize=c, FileAddr=17c00, FileSize=200

而后借助 ILSpy 反编译工具查看,因为比拟敏感,我就多含糊一点,请大家见谅!

看完下面的代码,我其实有一点不解,既然是往 Application 中赋值,为啥不提取到 Application_Start 中呢? 我猜想开发人员也是无所谓,怎么不便怎么来,接下来看一下 Application 的源码。

public sealed class HttpApplicationState : NameObjectCollectionBase{    private HttpApplicationStateLock _lock = new HttpApplicationStateLock();    public void Set(string name, object value)    {        _lock.AcquireWrite();        try        {            BaseSet(name, value);        }        finally        {            _lock.ReleaseWrite();        }    }}internal class HttpApplicationStateLock : ReadWriteObjectLock{    internal override void AcquireWrite()    {        int currentThreadId = SafeNativeMethods.GetCurrentThreadId();        if (_threadId == currentThreadId)        {            _recursionCount++;            return;        }        base.AcquireWrite();        _threadId = currentThreadId;        _recursionCount = 1;    }    internal override void ReleaseWrite()    {        int currentThreadId = SafeNativeMethods.GetCurrentThreadId();        if (_threadId == currentThreadId && --_recursionCount == 0)        {            _threadId = 0;            base.ReleaseWrite();        }    }}internal class ReadWriteObjectLock{    internal virtual void AcquireWrite()    {        lock (this)        {            while (_lock != 0)            {                try                {                    Monitor.Wait(this);                }                catch (ThreadInterruptedException)                {                }            }            _lock = -1;        }    }    internal virtual void ReleaseWrite()    {        lock (this)        {            _lock = 0;            Monitor.PulseAll(this);        }    }}

代码有点长,但总的来说这里的代码不简略,Application 通过 lock 本人封装了一个 读写锁,不简略归不简略,但这里有什么问题呢 ? 就算写错了中央貌似也不会造成 cpu 爆高吧?

其实这里波及到了一个概念:那就是 lock convoys (锁护送)

5. lock convoys (锁护送)

对于什么是 lock convoys ,我找了一篇解释很好的文章: 锁护送 ,这里我截一张图,大家认真品品。

这也是 无锁编程 始终在鞭挞的景象。

三:总结

我看了下这个 Session_Start 办法中,大略有 105 个 Application[xxx],也就意味着有 105 个 lock 等着以后线程去闯关。。。 而此时有近800个线程已进入到此办法中,共计一下不少于 8W个锁等着这些线程去闯,在配上被迫的海量cpu工夫片切换,唤醒再休眠,休眠再唤醒,大家互相交织一起把 cpu 给抬起来了。

解决办法很简略,尽最大致力升高这些 串行lock 的个数,能降到一个甚至没有就更好了 。

  • 对 Application 的赋值全副提取到 Application_Start 中,毕竟程序启用时无人竞争。
  • 尽量将 单行赋值 改成 批量赋值

更多高质量干货:参见我的 GitHub: dotnetfly