共计 11872 个字符,预计需要花费 30 分钟才能阅读完成。
作者:章晓 | 旷视 MegEngine 架构师
一、前言
2020 年 5 月 Nvidia 公布了新一代的 GPU 架构安培(Ampere)。其中和深度学习关系最亲密的莫过于性能强劲的第三代的 TensorCore,新一代的 TensorCore 反对了更为丰盛的 DL(Deep Learning)数据类型,包含了新的 TesorFloat-32(TF32),Bfloat16(BF16)计算单元以及 INT8, INT4 和 INT1 的计算单元,这些计算单元为 DL 推理提供了全面的反对。为了施展这些计算单元的能力,以往会由资深的 HPC 工程师手写 GPU 汇编实现的卷积、矩阵乘算子来开掘硬件的能力。然而凭借人力手工优化算子的形式曾经没有方法应答如此多的数据类型,因而对于 DL 利用的优化慢慢地越来越依赖一些自动化的工具,例如面向深度学习畛域的编译器。在这样的趋势下,Nvidia 开发了线性代数模板库 CUTLASS,形象了一系列高性能的根本组件,能够用于生成各种数据类型,各种计算单元的卷积、矩阵乘算子。MegEngine 在 CUTLASS 的根底上进行了二次开发,能够高效地开发新的高性能的算子,疾速地迁徙到新的 GPU 架构。在上一篇 文章 中,咱们曾经简略介绍了 MegEngine 的底层卷积算子实现的应用办法,而本文将会深刻介绍 MegEngine CUDA 平台的底层卷积算子的实现原理,并将会对 Nvidia CUTLASS 的 Implicit GEMM 卷积 文档 进行解读和补充。
因而,读者在浏览本文之前必须要理解的 CUDA 常识有:
- 拜访全局存储(Global Memory)时,同一 Warp 中的相邻线程拜访间断的地址,访存申请会被合并,合并的访存可能最大化 Global Memory 的吞吐。
- 拜访 Global Memory 时,尽可能应用最宽的数据类型(float4)进行拜访,这样能够最大化访存指令的利用率。
- CUDA 的共享存储(Shared Memory)依照每 4Bytes 划分为一个 bank,共分为 32 个 bank。当同一 Warp 中的线程拜访同一 bank 的不同地址时会发生冲突(bank conflict)。无 bank conflict 的访存模式能力最大化 Shared Memory 的吞吐。
-
GPU 有显存(Global Memory)、L2、L1(Shared Memory)、寄存器 4 个档次的存储,间接拜访显存的提早很高,在优化 GEMM、Convolution 这样的计算密集型算子时,须要
- 通过 L1 和寄存器的缓存来缩小 Global Memory 的访存申请。
- 通过大量的计算来暗藏不可避免的 Global Memory 访存提早。
首先,咱们须要理解 CUTLASS 引入的一些抽象概念
TileIterator
: 用于拜访存储中的一个 Tile 的数据。TileIterator
实现了advance()
办法,反对在Matrix
,Tensor
等数据类型上进行遍历。Fragment
: 数组类型,用于寄存TileIterator
读取进来的数据。Fragment
的数据通常寄存在寄存器中。
而后咱们简略回顾一下 CUTLASS 设计的高性能的 GEMM 算子的 Pipeline,依照 Pipeline 实现的算子可能在 CUDA 平台上达到 cublas 的 90% 以上的性能。下图演示了 CUTLASS 设计的 Pipeline 化的 GEMM 算子:
- 图中第一行演示了由
PredicatedTileIterator
和SmemTileIterator
配合实现从 Global Memory 到 Shared Memory 的数据搬运。 - 第二行演示了
WarpTileIterator
负责从 Shared Memory 搬运数据到Fragment
寄存器中。 - 第三行展现了
WarpMmaOperator
用Fragment
寄存器中的矩阵数据执行矩阵乘加 (Matrix-Multiply-Add) 操作。
二、Implicit GEMM 算法
卷积映射为矩阵乘法
咱们首先来看一下前向卷积算子的定义,假如输出的 feature map 是 x,卷积层的 weight 是 w,输入是 y,其中 x,y,w 都是 4 维的 Tensor,x 的四个维度别离是 NxICxIHxIW,w 的四个维度别离是 OCxICxFHxFW,y 的四个维度别离是 NxOCxOHxOW。那么输入 y 和输出 x, w 的数学关系式能够写成
$$
\text{y}(\text{n}, \text{oc}, \text{oh}, \text{ow} ) = \sum_{\text{ic}} \sum_{\text{fh}} \sum_{\text{fw}} \text{x} (\text{n}, \text{ic}, \text{ih}, \text{iw}) \cdot \text{w} (\text{oc}, \text{ic}, \text{fh}, \text{fw} )
$$
公式里的小写字母代表了 Tensor 在每一维的坐标,其中 ih,iw 和 oh,ow,fh,fw 的关系式能够写为
ih = oh * stride_h - pad_h + fh
iw = ow * stride_w - pad_w + fw
这里的 stride_h
, stride_w
, pad_h
, pad_w
是卷积层的参数。
依据 im2col 算法的原理,公式里定义的卷积运算能够转化为一个矩阵乘法,也即
C = Matmul(A, B)
其中
- 矩阵 A 由 weight 转化而来,是一个 $\text{OC}\times\text{IC}\cdot\text{FH}\cdot\text{FW}$ 的矩阵。
- 矩阵 B 由 feature map 转化而来,是一个 $\text{IC}\cdot\text{FH}\cdot\text{FW}\times\text{N}\cdot\text{OH}\cdot\text{OW}$ 的矩阵
- 矩阵 C 代表了输入的 Tensor y,是一个 $\text{OC}\times\text{N}\cdot\text{OH}\cdot\text{OW}$ 的矩阵。
矩阵和 Tensor 在各个地位上的元素的对应关系为
$$
\begin{equation}
\begin{aligned}
A_{ik} &= \text{w}\left(\text{oc}, \text{ic}, \text{fh}, \text{fw}\right) \\
\end{aligned}
\end{equation}
$$
$$
\begin{equation}
\begin{aligned}
B_{kj} &= \text{x}\left(\text{n}, \text{ic}, \text{ih}, \text{iw}\right) \\
\end{aligned}
\end{equation}
$$
$$
\begin{equation}
\begin{aligned}
C_{ij} &= \text{y}\left(\text{n}, \text{oc}, \text{oh}, \text{ow}\right)
\end{aligned}
\end{equation}
$$
其中矩阵的下标 $i, j, k$ 和 Tensor 的坐标之间的关系为
i = oc
j = n * OH * OW + oh * OW + ow
k = ic * FH * FW + fh * FW + fw
当 $j$ 已知时,能够用上面的关系式推算出 feature map 的坐标
n = j / (OH * OW)
j_res = j % (OH * OW)
oh = j_res / OW
ow = j_res % OW
当 $k$ 已知时,能够推算出 weight 的坐标
ic = k / (FH * FW)
k_res = k % (FH * FW)
fh = k_res / FW
fw = k_res % FW
同时联合 oh, ow, fh, fw,就能够计算出 ih 和 iw。
依据下面的探讨,咱们能够把卷积的运算过程,写成一个隐式矩阵乘法 (Implicit GEMM) 的模式:
GEMM_M = OC
GEMM_N = N * OH * OW
GEMM_K = IC * FH * FW
for i in range(GEMM_M):
oc = i
for j in range(GEMM_N):
accumulator = 0
n = j / (OH * OW)
j_res = j % (OH * OW)
oh = j_res / OW
ow = j_res % OW
for k in range(GEMM_K):
ic = k / (FH * FW)
k_res = k % (FH * FW)
fh = k_res / FW
fw = k_res % FW
ih = oh * stride_h - pad_h + fh
iw = ow * stride_w - pad_w + fw
accumulator = accumulator + x(n, ic, ih, iw) * w(oc, ic, fh, fw)
y(n, oc, oh, ow) = accumulator
下面的 Implicit GEMM 算法依然是串行的模式,接下来咱们要把它革新成 CUDA 上的并行算法。首先咱们对整个计算工作进行分块,让每个线程块负责计算并输入大小为 TILE_MxTILE_N
的矩阵。于是算法变成了上面的模式:
for i_out in range(GEMM_M / TILE_M):
for j_out in range(GEMM_N / TILE_N):
ThreadblockConvolution(x, w, y)
def ThreadblockConvolution(x, w, y):
accumulate[TILE_M, TILE_N] = 0
for i_in in range(TILE_M):
oc = i_out * TILE_M + i_in
for j_in in range(TILE_N):
j = j_out * TILE_N + j_in
n = j / (OH * OW)
j_res = j % (OH * OW)
oh = j_res / OW
ow = j_res % OW
for k in range(GEMM_K):
ic = k / (FH * FW)
k_res = k % (FH * FW)
fh = k_res / FW
fw = k_res % FW
ih = oh * stride_h - pad_h + fh
iw = ow * stride_w - pad_w + fw
accumulator(i_in, j_in) = accumulator(i_in, j_in)
+ x(n, ic, ih, iw) * w(oc, ic, fh, fw)
y(n, oc, oh, ow) = accumulator(i_in, j_in)
为了进步访存的效率,咱们能够在 GEMM_K
这一维上也进行分块,每次将 TILE_MxTILE_K
的矩阵 A 和 TILE_KxTILE_N
的矩阵 B 缓存到 Shared Memory 里,防止反复的 Global Memory 访存。于是,算法就变成了如下模式:
for i_out in range(GEMM_M / TILE_M):
for j_out in range(GEMM_N / TILE_N):
ThreadblockConvolution(x, w, y)
def ThreadblockConvolution(x, w, y):
accumulator[TILE_M, TILE_N] = 0
smem_A[TILE_M, TILE_K] = 0
smem_B[TILE_K, TILE_N] = 0
for i_in in range(TILE_M):
oc = i_out * TILE_M + i_in
for j_in in range(TILE_N):
j = j_out * TILE_N + j_in
n = j / (OH * OW)
j_res = j % (OH * OW)
oh = j_res / OW
ow = j_res % OW
for k_out in range(GEMM_K / TILE_K):
load_tile_to_smem(x, A_smem)
load_tile_to_smem(w, B_smem)
WarpGemm(A_smem, B_smem, accumulator)
y(n, oc, oh, ow) = accumulator(i_in, j_in)
def WarpGemm(A_smem, B_smem, accumulator):
for k_in in range(TILE_K):
accumulator(i_in, j_in) = accumulator(i_in, j_in)
+ A_smem(i_in, k_in) * B_smem(k_in, j_in)
因为咱们能够间接复用 CUTLASS 里曾经实现好了高性能的WarpMmaOperator
,所以实现基于 Implicit GEMM 的卷积算子只须要
- 适配
DeviceConvolution
、KernelConvolution
和ThreadblockConvolution
,反对传入 Tensor 类型和 Convolution Layer 的参数。 - 增加
PredicateTileIterator
反对读取 Tensor 的一个 Tile 的数据到 Shared Memory 中,并隐式地将读入的数据组织成矩阵的模式。 - 算法的 main loop 中间接调用
WarpTileIterator
从 Shared Memory 读取数据,而后由WarpGemmOperator
实现 Warp-level 的 GEMM 运算。 EpilogueOperator
适配卷积算子,将 Accumulator 的数据写回 Global Memory 的 Tensor 中。
接下来咱们会以 INT8 数据类型的 TensorCore 卷积算子来介绍 MegEngine 底层的卷积实现,本文会重点介绍 2、3、4 是如何实现的,对于如何应用曾经写好的卷积算子,能够参考之前的 文章。
Global Memory 数据布局(Layout)
为了最大化 TensorCore 类型的卷积算子的吞吐,MegEngine 应用了 128 位的 Global
Memory 访存指令,因而在拜访 Tensor 的数据的时候要求地址满足 128 位对齐。MegEngine 应用了 NCHW32 的格局来存储 Tensor,NCHW32 格局的特点为:
- Tensor 的通道维度依照 32 个 channel 进行分组,每 32 个 channel 间断的寄存在存储中。
- Tensor 的其余维度依照 W、H、C、N 的程序地址变动由快到慢的寄存在存储中。
因为采纳了 32 个通道对齐的存储格局,因而卷积 layer 要求输出和输入 feature map 的通道数都是 32 的倍数。
预处理访存偏移量
MegEngine 的卷积实现在 GEMM_K
的维度上是依照 $(\text{IC}/32)\cdot \text{FH}\cdot \text{FW}\cdot32$ 的程序累加,写成伪代码的模式如下:
kInterleaved = 32
for ic_out in range(IC//kInterleaved):
for fh in range(FH):
for fw in range(FW):
for ic_in in range(kInterleaved):
# do mma
......
如果写成一层循环,那么应该写成:
kInterleaved = 32
for k in range(GEMM_K):
chw = k // kInterleaved
ic_in = k % kInterleaved
ic_out = chw // (FH * FW)
chw_res = chw % (FH * FW)
fh = chw_res // FW
fw = chw_res % FW
pointer += ic_out * C_STRIDE + fh * H_STRIDE + fw * W_STRIDE
# do mma
......
能够看到在迭代过程中,如果间接计算指针的偏移量的话,会引入很多除法和求余运算。而在 CUDA 平台上,整数的除法和求余的开销是十分大的,因而咱们将一些地址的偏移量在 host 端事后计算好,存到 kernel param 的 buffer 中,须要时从 constant memory 中间接读取地址,防止除法和求余运算。
对于每个线程来说,在主循环中指针挪动的 offset 如下图所示:
如果地址的增量能够用 delta
来示意的话,那么 delta
是以 FH*FW
为周期的,即:
delta(step, TILE_K) = delta(step + (FH * FW), TILE_K)
因而咱们只须要大概 $\text{O}\left(\text{FH}\cdot\text{FW}\right)$ 的存储空间。其中地址偏移量的计算逻辑能够参考代码 conv2d_tile_iterator_nt_src_fprop_precomp.h。因为 kernel param buffer 的大小为 4KB,咱们用了大概 3KB 来存储地址的增量,所以 MegEngine 的卷积实现要求 Convolution Layer 的 FH*FW
的大小不能太大,然而个别状况下,3×3, 5×5, 7×7 的卷积都能够解决。Nvidia 官网实现的迭代程序与本文介绍的略有不同:
- 官网实现须要将
IC
补齐为TILE_K
的倍数,这样在通道数较小时会节约一些计算量。 - 官网实现的线程块在拜访输出 feature map 的时候地址的跨度比拟大,升高了访存的局部性,对 cache 不够敌对。
因而在性能方面,MegEngine 的实现会更有劣势,而官网实现的长处是对 Convolution Layer 的参数没有太多限度,通用性更好。
Warp-level Mma(Matrix-multiply-add) 指令
cuda10.2 引入了新的 Warp-level 的 mma
和ldmatrix
指令,用户能够通过 mma
指令应用 TensorCore 来进行高速的矩阵乘加运算,通过 ldmatrix
精密地管制 Warp 给 TensorCore 喂数据。其中 mma
指令的用法如下:
unsigned A, B; // input matrix fragment data
int C[2], D[2]; // accumulators
asm volatile("mma.sync.aligned.m8n8k16.rol.col.satfinite.s32.s8.s8.s32 {%0,$1}, {%2}, {%3}, {%4,%5};\n"
: "=r"(D[0]), "=r"(D[1])
: "r"(A), "r"(B), "r"(C[0]), "r"(C[1]));
这条指令的语义是由一个 Warp 的 32 个线程同步地实现 8x8x16 的矩阵乘加运算,它有三个输出操作数,其中参加矩阵乘法运算的别离是一个 8×16 的矩阵 A 和一个 16×8 的矩阵 B,这两个输出矩阵的数据分布在同一 Warp 的 32 个线程中。
矩阵 A 的布局如下图所示:
- 同一 Warp 中的 32 个线程分为 8 组,每组四个线程,负责读取 8×16 的矩阵中的一行。
- 每一组中的一个线程读取每一行中相邻的 4 个 int8 的数据,恰好填满一个 32 位的寄存器。
相似的矩阵 B 的布局如下图所示:
- 每 4 个线程一组,共分为 8 组,每组负责读取 16×8 的矩阵中的一列。
- 每一组中的一个线程负责读取一列中相邻的 4 个数据。
参加累加运算的矩阵 C 和输入矩阵 D 的数据也同样散布在 32 个线程中,它们的布局如下图所示:
- 同样每 4 个线程一组,每组负责读入 / 输入一行的数据。
- 每个线程负责输入一行中的相邻两个 int32 类型的数据,恰好形成一个 64 位的寄存器。
通过对 mma
指令的剖析,如果 Global Memory/Shared Memory 中的数据是以行优先 (RowMajor) 或者列优先 (ColumnMajor) 的格局存储的,那么当同一 Warp 执行空间上间断的两个 8x8x16 的矩阵乘加运算时,每个线程读取的数据将会是跳跃的,执行每次乘法都只能读取 32 位宽的数据到寄存器中,而低位宽的 Load 指令通常没有方法最大化利用存储的带宽。因而 Nvidia 提供了 ldmatrix
的指令,能够让同一 Warp 一次性读取 4 个 8×16 的矩阵到寄存器中,这样恰好能够让 Warp 中的每个线程一次读取 128 位的数据,最大化带宽的利用率。ldmarix
的用法如下所示:
unsigned addr; // shared memory pointer
int x, y, z, w; // loaded data
int4 data; // loaded fragment
asm volatile("ldmatrix.sync.aligned.x4.m8n8.shared.b16 {%0, %1, %2, %3}, [%4];"
: "=r"(x), "=r"(y), "=r"(z), "=r"(w)
: "r"(addr));
data = make_int4(x, y, z, w);
上述这条指令恰好读取了 4 个 8×16 的矩阵,每个线程恰好负责读取矩阵的一行数据,读取实现后,线程之间会进行数据交换,将矩阵的数据从新散布到各个线程,读取的过程如下图所示:
这一节介绍了 TensorCore 相干的 mma
和ldmatrix
指令,有了这两条高性能的指令,咱们还须要为数据设计奇妙的 Shared Memory 存储格局,打消从 Shared Memory 读取数据的 bank conflict,从而晋升 Shared Memory 的读取效率。
Shared Memory 的数据布局
在介绍 Shared Memory 中的数据布局之前,咱们须要理解 Shared Memory 的访存特点。Shared Memory 依照每 4 个字节组成一个 bank,共划分成了 32 个 bank,同一 Warp 的线程拜访了雷同 bank 的不同地址时会产生 conflict,导致访存的效率变慢。在同一 Warp 的线程拜访不同位宽的数据时,会有不同的行为:
- 每个线程拜访 Shared Memory 中 32 位的数据,访存将在一个阶段内实现。
-
每个线程拜访 Shared Memory 中 64 位的数据,访存会在两个阶段内实现:
- 第一个阶段:前 16 个线程访存 128 字节的数据。
- 第二个阶段:后 16 个线程访存 128 字节的数据。
-
每个线程拜访 Shared Memory 中的 128 位的数据,访存会在四个阶段内实现:
- 每个阶段由 8 个线程实现 128 字节的数据的访存。
如果上述过程中每个阶段都没有 bank conflict,则可能达到最大的 Shared Memory 访存效率。
通常为了防止 Shared Memory 的 bank conflict,咱们会对 Shared Memory 的数据进行 padding,让线程拜访的数据错开,防止落在同一 bank 中。然而这样做的问题是会使得 kernel 须要 Shared Memory 的 Size 变大,然而 SM 上的 L1 cache(Shared Memory) 又是无限的,所以 padding 会升高 kernel 的 occupancy,进而就会升高 kernel 的性能。
因而 CUTLASS 设计了一种 Shared Memory 的交织布局形式,它可能在不进行 padding 的前提下,使得线程访存的地址没有 bank conflict。接下来,咱们以 64×64 的矩阵为例来具体介绍数据在 Shared Memory 中的布局。首先,线程读取数据的粒度都是 128 位,也即 16 个 INT8 类型的数据,因而咱们在演示数据的布局时总是以 16 个数据为一组。如果矩阵是以行优先 (RowMajor) 的格局来组织的,那么在逻辑上的布局如下图所示:
从图中能够看到
- 每 16 个元素分为一组,被称为一个 Vector,被染上了不同的色彩。
- 每行相邻的 32 个元素被称为一个 Crosswise,恰好是 NCHW32 格局中的一组 channel 的数据。
在 Shared Memory 的物理存储中,矩阵的数据进行了重新排列,如下图所示:
咱们能够看到 Shared Memory 的物理布局有以下特点:
- 每 4 行的一个 Crosswise 的数据作为一组,间断寄存在 Shared Memory 中,紧接着会寄存这 4 行的下一个 Crosswise 的数据。
- 每组数据蕴含了 8 个 Vector,占据了 128 个字节,恰好是 Shared Memory 中的 32 个不同的 bank。
- 每组数据在排列是进行了交织,保障了
ldmatrix
时不会产生 bank conflict。
显存 -> Shared Memory 的数据搬运
这一节咱们会介绍从显存 (Global Memory) 到 Shared Memory 的数据搬运。显存到 Shared Memory 的数据搬运是由 Conv2dTileSrcIteratorFpropPrecomp 来实现的,本文并不会具体地解读代码的实现,而是形容线程搬运数据的过程,帮忙大家建设直观的印象,更好地了解代码。
如果以上一节中 Shared Memory 的逻辑布局为例,同一 Warp 中每个线程读取的数据的逻辑布局如下图所示,每个线程读取 16 个 INT8 类型的数据,恰好形成一个 Vector。
而在理论的物理显存中,线程拜访的数据分布如下图所示:
- 咱们能够看到每个线程读取了 128 位的数据。
- 相邻的线程读取的数据在物理上是间断的。
因而线程从 Global Memory 读取数据的 pattern 能够满足合并访存的要求,同时以最大的数据位宽进行访存,最大化了显存带宽的利用率。
而后如果将线程读取的数据映射到 Shared Memory 的物理地址,咱们能够看到
- 每 8 个线程向 Shared Memory 写入 128 字节的数据,恰好落在 Shared Memory 的 32 个不同的 bank 中。
- 同一 Warp 的访存分为四个阶段实现,每个阶段都没有 bank conflict。
下图演示了一个 Warp 写入 Shared Memory 的过程:
Shared Memory -> 寄存器的数据搬运
Shared Memory 到寄存器的数据搬运是由 MmaTensorOpMultiplicandTileIterator 实现的。同一 Warp 在每一轮迭代过程会读取 4 个 8×16 的矩阵到寄存器中,每个线程会读取一行的数据。例如第一轮迭代时,线程读取的数据在逻辑上的布局如下图所示:
而实际上数据在 Shared Memory 里的物理布局如下图:
能够看到:
- 每个线程读取了 128 位的数据,因而访存分为四个阶段来进行。
- 每一阶段的 8 个线程读取的数据恰好落在了 Shared Memory 的 32 个 bank 中,并且线程访存的数据之间不存在抵触。
当进行到第二轮迭代时,每个线程拜访的数据的物理布局如下图:
同样的访存的每一个阶段都不存在 bank conflict。
Accumulator 写回全局存储
在 int8 的状况下,同一 Warp 负责输入 64×64 的后果,kernel 会分成 8 次写回 Global Memory,每次写回 32×8 的矩阵。这样保障了每次将 Tensor 依照 NCHW32 格局写回显存时,同一 Warp 的 32 个线程恰好写了物理上间断的 256 字节的数据,而每个线程写回 8 个字节,保障了能够应用 64 位宽的数据类型进行显存的写操作,尽可能进步带宽的利用率。
因为 mma
指令的特点,输入矩阵的数据分布在各个线程上,而为了可能合并访存,即:让相邻线程写回的地址是间断的,咱们利用 Shared Memory 对同一 Warp 中 32 个线程的数据进行了替换。数据交换后,每个线程领有间断的 8 个通道的数据,且线程写的地址是间断的,保障了写回 Global Memory 满足合并访存的要求。
线程替换数据的过程如下图所示:
每一轮迭代,Warp 中的 32 个线程将 32×16 的矩阵数据写入到 Shared Memory 中。接着如下图所示,每个线程会把间断的 8 个 channel 的数据读到寄存器中。
Shared Memory 的数据交换是由以下两个 Iterator
实现的
- InterleavedTileIteratorTensorOp 实现了每一轮迭代将 32×8 的数据写入到 Shared Memory 中。
- InterleavedSharedLoadIteratorTensorOp 负责将间断的 8 个 channel 的数据读到
Fragment
寄存器中。
当线程将替换后的数据读到 Fragment
寄存器之后,会由 EpilogueOp
,在卷积的根底上实现BiasAdd
的运算。以 BiasAddLinearCombinationRelu 为例,它实际上实现了上面的运算:
accumulator = conv(x, w)
y = alpha * accumulator + beta * bias + gamma * z
其中 bias 是一个 PerChannel
的 Tensor,代表了每个输入通道的偏置,z 是一个和卷积输入大小统一的 Tensor,用于 Convolution
和ElemwiseAdd
的交融。
最初 EpilogueOp
的输入会由 TensorPredicatedTileIteratorTensorOp 真正地写回到 Global Memory 中。每个线程写回的数据如下图所示:
能够看到线程写回的 pattern 满足合并访存的要求,因而能最大化 Global Memory 写的效率。
三、总结
本文介绍了 MegEngine 底层的卷积算子实现原理,算子性能能够达到 cudnn 的 80% 以上,测速后果能够参见文章。
MegEngine 会对卷积实现进行继续优化,进一步晋升算子的性能,目前来看有以下两点可做的优化:
- 借鉴 Nvidia 官网 CUTLASS ImplicitGEMM Convolution 实现对 mask 的解决,进步
TileIterator
对于 mask 判断的效率。 -
当初的卷积实现在写回显存时利用 Shared Memory 进行数据交换是存在 bank conflict 的。后续会思考两点优化
- 对 Shared Memory 的数据布局进行摸索,打消 bank conflict,优化 Shared Memory 数据交换的效率。
- 对 Global Memory 中的 Weight Tensor 的布局进行摸索,进步每个 Thread 上 accumulator 的局部性,防止在 Shared Memory 中进行数据交换。
参考资料
- Warp-level Matrix Fragment Mma PTX 文档
- CUTLASS Implicit GEMM Convolution 官网文档
- Volta architecture and performance optimization
- Developing CUDA kernels to push Tensor Cores to the absolute limit on Nvidia A100