小师妹学JVM之cache-line对代码性能的影响

10次阅读

共计 2818 个字符,预计需要花费 8 分钟才能阅读完成。

简介

读万卷书不如行万里路,讲了这么多 assembly 和 JVM 的原理与优化,今天我们来点不一样的实战。探索一下怎么使用 assembly 来理解我们之前不能理解的问题。

一个奇怪的现象

小师妹:F 师兄,之前你讲了那么多 JVM 中 JIT 在编译中的性能优化,讲真的,在工作中我们真的需要知道这些东西吗?知道这些东西对我们的工作有什么好处吗?

um… 这个问题问得好,知道了 JIT 的编译原理和优化方向,我们的确可以在写代码的时候稍微注意一下,写出性能更加优秀的代码,但是这只是微观上了。

如果将代码上升到企业级应用,一个硬件的提升,一个缓存的加入或者一种架构的改变都可能比小小的代码优化要有用得多。

就像是,如果我们的项目遇到了性能问题,我们第一反应是去找架构上面有没有什么缺陷,有没有什么优化点,很少或者说基本上不会去深入到代码层面,看你的这个代码到底有没有可优化空间。

第一,只要代码的业务逻辑不差,运行起来速度也不会太慢。

第二,代码的优化带来的收益实在太小了,而工作量又非常庞大。

所以说,对于这种类似于鸡肋的优化,真的有必要存在吗?

其实这和我学习物理化学数学知识是一样的,你学了那么多知识,其实在日常生活中真的用不到。但是为什么要学习呢?

我觉得有两个原因,第一是让你对这个世界有更加本质的认识,知道这个世界是怎么运行的。第二是锻炼自己的思维习惯,学会解决问题的方法。

就想算法,现在写个程序真的需要用到算法吗?不见得,但是算法真的很重要,因为它可以影响你的思维习惯。

所以,了解 JVM 的原理,甚至是 Assembly 的使用,并不是要你用他们来让你的代码优化的如何好,而是让你知道,哦,原来代码是这样工作的。在未来的某一个,或许我就可能用到。

好了,言归正传。今天给小师妹介绍一个很奇怪的例子:

private static int[] array = new int[64 * 1024 * 1024];

    @Benchmark
    public void test1() {
        int length = array.length;
        for (int i = 0; i < length; i=i+1)
            array[i] ++;
    }
    @Benchmark
    public void test2() {
        int length = array.length;
        for (int i = 0; i < length; i=i+2)
            array[i] ++;
    }

小师妹,上面的例子,你觉得哪一个运行的更快呢?

小师妹:当然是第二个啦,第二个每次加 2,遍历的次数更少,肯定执行得更快。

好,我们先持保留意见。

第二个例子,上面我们是分别 + 1 和 +2,如果后面再继续 +3,+4,一直加到 128,你觉得运行时间是怎么样的呢?

小师妹:肯定是线性减少的。

好,两个问题问完了,接下来让我们来揭晓答案吧。

更多精彩内容且看:

  • 区块链从入门到放弃系列教程 - 涵盖密码学, 超级账本, 以太坊,Libra, 比特币等持续更新
  • Spring Boot 2.X 系列教程: 七天从无到有掌握 Spring Boot- 持续更新
  • Spring 5.X 系列教程: 满足你对 Spring5 的一切想象 - 持续更新
  • java 程序员从小工到专家成神之路(2020 版)- 持续更新中, 附详细文章教程

两个问题的答案

我们再次使用 JMH 来测试我们的代码。代码很长,这里就不列出来了,有兴趣的朋友可以到本文下面的代码链接下载运行代码。

我们直接上运行结果:

Benchmark               Mode  Cnt   Score   Error  Units
CachelineUsage.test1    avgt    5  27.499 ± 4.538  ms/op
CachelineUsage.test2    avgt    5  31.062 ± 1.697  ms/op
CachelineUsage.test3    avgt    5  27.187 ± 1.530  ms/op
CachelineUsage.test4    avgt    5  25.719 ± 1.051  ms/op
CachelineUsage.test8    avgt    5  25.945 ± 1.053  ms/op
CachelineUsage.test16   avgt    5  28.804 ± 0.772  ms/op
CachelineUsage.test32   avgt    5  21.191 ± 6.582  ms/op
CachelineUsage.test64   avgt    5  13.554 ± 1.981  ms/op
CachelineUsage.test128  avgt    5   7.813 ± 0.302  ms/op

好吧,不够直观,我们用一个图表来表示:

从图表可以看出,步长在 1 到 16 之间的时候,执行速度都还相对比较平稳,在 25 左右,然后就随着步长的增长而下降。

CPU cache line

那么我们先回答第二个问题的答案,执行时间是先平稳再下降的。

为什么会在 16 步长之内很平稳呢?

CPU 的处理速度是有限的,为了提升 CPU 的处理速度,现代 CPU 都有一个叫做 CPU 缓存的东西。

而这个 CPU 缓存又可以分为 L1 缓存,L2 缓存甚至 L3 缓存。

其中 L1 缓存是每个 CPU 核单独享有的。在 L1 缓存中,又有一个叫做 Cache line 的东西。为了提升处理速度,CPU 每次处理都是读取一个 Cache line 大小的数据。

怎么查看这个 Cache line 的大小呢?

在 mac 上,我们可以执行:sysctl machdep.cpu

从图中我们可以得到,机子的 CPU cache line 是 64byte,而 cpu 的一级缓存大小是 256byte。

好了,现在回到为什么 1 -16 步长执行速度差不多的问题。

我们知道一个 int 占用 4bytes,那么 16 个 int 刚好占用 64bytes。所以我们可以粗略的认为,1-16 步长,每次 CPU 取出来的数据是一样的,都是一个 cache line。所以,他们的执行速度其实是差不多的。

inc 和 add

小师妹:F 师兄,上面的解释虽然有点完美了,但是好像还有一个漏洞。既然 1 -16 使用的是同一个 cache line,那么他们的执行时间,应该是逐步下降才对,为什么 2 比 1 执行时间还要长呢?

这真的是一个好问题,光看代码和 cache line 好像都解释不了,那么我们就从 Assembly 的角度再来看看。

还是使用 JMH,打开 PrintAssembly 选项,我们看看输出结果。

先看下 test1 方法的输出:

再看下 test2 方法的输出:

两个有什么区别呢?

基本上的结构都是一样的,只不过 test1 使用的是 inc,而 test2 方法使用的 add。

本人对汇编语言不太熟,不过我猜两者执行时间的差异在于 inc 和 add 的差异,add 可能会执行慢一点,因为它多了一个额外的参数。

总结

Assembly 虽然没太大用处,但是在解释某些神秘现象的时候,还是挺好用的。

本文的例子 https://github.com/ddean2009/learn-java-base-9-to-20

本文作者:flydean 程序那些事

本文链接:http://www.flydean.com/jvm-jit-cacheline/

本文来源:flydean 的博客

欢迎关注我的公众号: 程序那些事,更多精彩等着您!

正文完
 0