矩阵乘法GEMM(General matrix multiply)它是一种广泛使用的基本算法,需要应用于各个领域。例如,神经网络的核心计算任务是矩阵乘法,矩阵乘法也可用于交易中的各种信号计算。因此,矩阵乘法的效率是极其关键的。
关于如何优化矩阵乘法,我准备写一个短系列的博客,包括CPU单线程篇、CPU多线程篇、GPU本计划还有一篇稀疏矩阵乘法文章,因为这学期毕业前没有时间GPU篇做到满意,因此,稀疏矩阵篇就没了,GPU这篇文章也很不完整。如果你将来有时间,有冲动,你可能会弥补(不太可能)。
这是矩阵乘法优化的第一篇文章,CPU单线程篇。
矩阵乘法对于相同的抽象算法,不同的优化带来了很大的性能差异,现代部分CPU最简单的矩阵乘法实现和最优实现甚至可以有100倍以上的性能差距,这比一些时间复杂度较低的矩阵乘法算法有效。而这一切都是针对现代的CPU系统结构的针对性优化,SIMD向量指令增加了CPU处理大量数据时的效率。本文将介绍如何针对CPU进行单线程GEMM优化。
这个系列的代码可以在https://github.com/renzibei/optimize-gemm部分测试代码来自并行计算基础课程。
矩阵内存格式
说到矩阵乘法,首先要统一矩阵的表示。对于C系语言而言,矩阵可以简单地用二维数组表示,例如矩阵中第i行第j列可以表示为。但在系统底部的内存中,只有连续的存储空间,编译器将高级语言二维数组的访问转换为访问一维内存地址。将二维坐标映射成一维坐标的方法有很多,直接有两种:行主序(row-major order)和列主序(column-major order)1。简单地说,对于上面提到的元素,如果要映射成一维数组,可以主序有一个内存元素,对应为;如果使用列主序,如果有一个内存元素,对应为。这里有一个内存元素,而不是一行有一个元素或一列有一个元素是有原因的。例如,对于主列的存储模式,矩阵线有一个元素,但矩阵线占用的内存不一定是一个元素。也许由于内存对齐,线占用了内存,而且。因此,在存储矩阵时,需要知道矩阵的存储格式是行主序还是列主序,还需要指出值。对于C系编程语言,二维数组通常使用行主序的存储模式。对于Fortran语言及其深厚的渊源BLAS框架一般采用列主序的存储方式。
本文和相关代码中都使用列主序的方式表示矩阵元素,即矩阵A的第i行第j列元素对应为。另外在代码中为了方便,很多地方,因此也可能直接表示成
测试方法
下面的讨论将围绕计算目标展开,其中A是M行K列矩阵,B为K行N列矩阵,C为M行N列矩阵。试验中的矩阵元素类型为单精度Float。
在本文测试中CPU使用的是ARM昆鹏920架构,主频2.6GHz,具有128bit SIMD寄存器和向量指令集。每核512KB L2 Cache。
本文中的性能测试数据是M=N=K在这种情况下,测试N从127到1281的多个数据规模的性能,评估指标是每秒浮点操作次数Flops
我们使用OpenBLAS框架是优化的目标,OpenBLAS针对不同的CPU架构写有针对性的优化代码,其GEMM算法的优化程度基本属于最高水平(Intel的芯片上Intel在我们的测试环境中,OpenBLAS32平均浮点性能Gflops左右。
优化过程
我们都使用以下优化过程-O2
在不明显改变我们优化意图的情况下,对编译器进行一些简单的自动优化。
最简单的平均浮点性能是1.098 Gflops,我们最终优化的平均浮点性能约为28.3 Gflops,距离OpenBLAS性能还有一些距离。
各种优化后的性能随数据规模而变化,如Figure 如数据规模足够大后,最终性能几乎不受数据规模的影响,相对稳定。
Figure 1: 优化后,性能随数据规模的变化而变化
前半部分优化参考https://github.com/flame/how-to-optimize-gemm/wiki一些方法。
朴素实现
简单的矩阵乘法是一个简单的算法,三层循环。对于此矩阵乘法和加法,请使用以下代码:
1 2 3 4 5 6 7 |
for (int i = 0; i < M; i) { for (int j = 0; j < N; j) { for (int k = 0; k < K; k) { C[i j * ldc] = A[i k * lda] * B[k j * ldb]; } } } |
这个代码非常直接,有些部分可以直接优化。例如,在累积过程中,可以使用寄存器中的变量临时存储,编译器可以防止指针Alias该优化不能自动生成。
这种naive该方法的平均性能为1.098 Gflops,性能相当差。那么性能瓶颈在哪里呢?
理论上,矩阵乘法应进行量级乘加计算,内存数据量规模,内存访问次数为量级。GEMM既是计算密集型,也是访问密集型。如果我们的访存速度和计算速度几乎相同,花在访存指令上的时间应该相当于花在浮点计算指令上的时间。然而,我们知道内存访问带宽远小于CPU计算浮点吞吐量,访存延迟远高于CPU浮点指令延迟,而CPU的Cache虽然速度很快,但尺寸非常有限,所有矩阵数据都无法插入。因此,朴素实现的瓶颈会在于访存指令的延迟,每个浮点计算指令都要等访存指令执行完。
然后,我们需要决定我们优化的方向。我们需要通过分块矩阵来解决访问带宽的问题(Blocking)虽然整个矩阵不能安装Cache在里面,但是一个足够小的子矩阵是可以的。矩阵分块后,计算的次数和访存次数保持不变,但更多的访存指令可以从Cache直接获取数据,大大降低了平均访存延迟。
另外,我们可以用SIMD向量化指令,一个指令可以控制多个数据,提高访率。
准备数据并行化
为了之后的SIMD对于向量化,我们需要调整算法的实现步骤。例如,对于矩阵C中每个元素的计算,在简单的实现中,我们只使用矩阵A的行来点击矩阵B的列。如果我们同时计算C中的四个元素,我们可以同时取A中的连续四行和B中的连续四列。这样,连续取整个内存有利于以后的向量化。
具体来说,我们每次同时计算C的4x4的16个元素,所以我们同时使用A的连续4行和B的连续4列。
如果只调整形式,不做其他优化,性能几乎不会改变。目前的浮点性能为1.087 Gflops。
内部循环的核心代码如下请注意,对应的是4x4的小方块不是整个大矩阵的位置。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 |
for (int k = 0; k < K; k) { C[0 0 * ldc] = A[0 k * lda] * B[k 0 * ldb]; C[0 1 * ldc] = A[0 k * lda] * B[k 1 * ldb]; C[0 2 * ldc] = A[0 k * lda] * B[k 2 * ldb]; C[0 3 * ldc] = A[0 k * lda] * B[k 3 * ldb]; C[1 0 * ldc] = A[1 k * lda] * B[k 0 * ldb]; C[1 1 * ldc] = A[1 k * lda] * B[k 1 * ldb]; C[1 2 * ldc] = A[1 k * lda] * B[k 2 * ldb]; C[1 3 * ldc] = A[1 k * lda] * B[k 3 * ldb]; C[2 0 * ldc] = A[2 k * lda] * B[k 0 * ldb]; C[2 1 * ldc] = A[2 k * lda] * B[k 1 * ldb]; C[2 2 * ldc] = A[2 k * lda] * B[k 2 * ldb]; C[2 3 * ldc] = A[2 k * lda] * B[k 3 * ldb]; C[3 0 * ldc] = A[3 k * lda] * B[k 0 * ldb]; C[3 1 * ldc] = A[3 k * lda] * B[k 1 * ldb]; C[3 2 * ldc] = A[3 k * lda] * B[k 2 * ldb]; C[3 3 * ldc] = A[3 k * lda] * B[k 3 * ldb]; } |
这部分我写的可能不是很详细,可以参考https://github.com/flame/how-to-optimize-gemm/wiki的做法。
使用寄存器减少访存次数
上述代码有一些明显的优化方法,可以减少访问存储的次数。例如,16个C中的元素首先用寄存器暂存,然后在累积时使用寄存器,最后写入内存。
此外,在内循环的每一次迭代中,中的访问内存的次数为16次,B也为16次,但其实A与B都只各自访问了4个元素,因此其实也可以各用4个寄存器先加载内存,然后使用寄存器计算。
减少访存后,平均浮点性能为5.385 Gflops,这相对于之前是一个很大的提升。
内层循环的核心代码如下,
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 |
register float c00 = 0, c01 = 0, c02 = 0, c03 = 0, c10 = 0, c11 = 0, c12 = 0, c13 = 0, c20 = 0, c21 = 0, c22 = 0, c23 = 0, c30 = 0, c31 = 0, c32 = 0, c33 = 0; register float a0i, a1i, a2i, a3i; register float bi0, bi1, bi2, bi3; float *bi0_p, *bi1_p, *bi2_p, *bi3_p; bi0_p = B; bi1_p = B + 1 * ldb; bi2_p = B + 2 * ldb; bi3_p = B + 3 * ldb; for (int i = 0; i < n; ++i) { a0i = A[i * lda]; a1i = A[1 + i * lda]; a2i = A[2 + i * lda]; a3i = A[3 + i * lda]; bi0 = *bi0_p++; bi1 = *bi1_p++; bi2 = *bi2_p++; bi3 = *bi3_p++; c00 += a0i * bi0; c01 += a0i * bi1; c02 += a0i * bi2; c03 += a0i * bi3; c10 += a1i * bi0; c11 += a1i * bi1; c12 += a1i * bi2; c13 += a1i * bi3; c20 += a2i * bi0; c21 += a2i * bi1; c22 += a2i * bi2; c23 += a2i * bi3; c30 += a3i * bi0; c31 += a3i * bi1; c32 += a3i * bi2; c33 += a3i * bi3; } C[0 + 0 * ldc] += c00; C[0 + 1 * ldc] += c01; C[0 + 2 * ldc] += c02; C[0 + 3 * ldc] += c03; C[1 + 0 * ldc] += c10; C[1 + 1 * ldc] += c11; C[1 + 2 * ldc] += c12; C[1 + 3 * ldc] += c13; C[2 + 0 * ldc] += c20; C[2 + 1 * ldc] += c21; C[2 + 2 * ldc] += c22; C[2 + 3 * ldc] += c23; C[3 + 0 * ldc] += c30; C[3 + 1 * ldc] += c31; C[3 + 2 * ldc] += c32; C[3 + 3 * ldc] += c33; |
SIMD向量化
之前我们已经将计算的顺序进行了改变,每次计算C的4x4的方块,每个内层循环的迭代中用到了4个矩阵A的元素和4个矩阵B的元素。这是很容易进行向量化的形式。
具体到ARM架构的CPU上,我们使用Neon向量指令集,每个指令可以操控128bit即4个Float数据,正好对我们上面的代码进行并行。
向量化后平均性能为9.963 Gflops,又有了进一步的提升。
内存循环的核心代码如下,
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 |
float32x4_t c_c0, c_c1, c_c2, c_c3, a_ri, b_vi0, b_vi1, b_vi2, b_vi3; c_c0 = vmovq_n_f32(0.0), c_c1 = vmovq_n_f32(0.0), c_c2 = vmovq_n_f32(0.0), c_c3 = vmovq_n_f32(0.0); float *bi0_p, *bi1_p, *bi2_p, *bi3_p; bi0_p = B; bi1_p = B + 1 * ldb; bi2_p = B + 2 * ldb; bi3_p = B + 3 * ldb; for (int i = 0; i < n; ++i) { a_ri = vld1q_f32(A + i * lda); b_vi0 = vld1q_dup_f32(bi0_p++); b_vi1 = vld1q_dup_f32(bi1_p++); b_vi2 = vld1q_dup_f32(bi2_p++); b_vi3 = vld1q_dup_f32(bi3_p++); c_c0 = vmlaq_f32(c_c0, a_ri, b_vi0); c_c1 = vmlaq_f32(c_c1, a_ri, b_vi1); c_c2 = vmlaq_f32(c_c2, a_ri, b_vi2); c_c3 = vmlaq_f32(c_c3, a_ri, b_vi3); } vst1q_f32(C + 0 * ldc, c_c0); vst1q_f32(C + 1 * ldc, c_c1); vst1q_f32(C + 2 * ldc, c_c2); vst1q_f32(C + 3 * ldc, c_c3); |
矩阵分块 Blocking
之前的方法在数据规模变大后性能都会有较大的下降,问题在于L2 Cache大小有限,如果不停地访存很快会把L2 Cache刷满一遍。因此应该让高密度计算中的访存范围集中,使用Blocked分块的方法。采取的分块策略是A每次访问MCxKC的块,B每次访问KC x ldb的块。其中MC和KC的大小进行多次尝试决定。
我们这里的分块并不彻底,B没有完全分块,其实B也可以分成KC x NC的块,只是在这一步继续分块对Cache带来的帮助并不大,因此我们暂且只分成这样,后续会将B也完全分成小块。
分块后的平均性能为13.612 Gflops,主要带来的收益是矩阵规模提升时性能不会下降。
外层的分块过程如下,do_block
函数内部的过程和之前的完整外部循环类似。
1 2 3 4 5 6 7 8 |
for (int k = 0; k < n; k += KC) { int K = min(n - k, KC); for (int i = 0; i < n; i += MC) { int M = min(n - i, MC); int N = n; do_block(M, N, K, n, n, n, A + i + k * n, B + k, C + i); } } |
内存重排 Packing
每次对A进行4x1的访存时,是对4行同一列元素进行的访存,但是每次循环就会跳到下一列,由于是列主序的矩阵,循环间访存不是连续的,最好将所有循环会访问的元素排到一起,可以减少跨区域访存的次数,增加数据在一条Cache Line中的概率。因此对A进行了4行元素的内存重排。
每次对B是进行1x4的访存,每次对同一行四列的元素访问,由于列主序,一次循环内的访存是不连续的,可以将4列的元素重排到一起。
对矩阵A的元素进行Packing后,平均性能为15.212 Gflops;对矩阵B的元素Packing后,平均性能为 17.139 Gflops。
进一步提高计算/访存比
之前代码的kernel部分,循环内一次计算取A的四个float,B的四个float,但是,B的每个float是用来标量乘A向量的,因此当时的做法是把B的每个float重复为1个32bitx4的向量再与A的向量相乘,核心代码如下
1 2 3 4 5 6 7 8 9 |
a_ri = vld1q_f32(A); b_vi0 = vld1q_dup_f32(B); b_vi1 = vld1q_dup_f32(B + 1); b_vi2 = vld1q_dup_f32(B + 2); b_vi3 = vld1q_dup_f32(B + 3); c_c0 = vmlaq_f32(c_c0, a_ri, b_vi0); c_c1 = vmlaq_f32(c_c1, a_ri, b_vi1); c_c2 = vmlaq_f32(c_c2, a_ri, b_vi2); c_c3 = vmlaq_f32(c_c3, a_ri, b_vi3); |
这段代码有5次访存,4次fma(乘加指令)向量乘(mla指令和fma的效果是一样的)。
其对应汇编代码如下(删掉了一些重新排布的无关代码),有一次单向量寄存器的load,两次双向量寄存器的load,也就是总共load了5个128bit寄存器,然后进行了4次fma计算。
1 2 3 4 5 6 7 |
4010e0: 3dc00080 ldr q0, [x4] 4010e8: 2d401cb0 ldp s16, s7, [x5] 4010ec: 2d4114a6 ldp s6, s5, [x5, #8] 4010f4: 4f901004 fmla v4.4s, v0.4s, v16.s[0] 4010fc: 4f871003 fmla v3.4s, v0.4s, v7.s[0] 401100: 4f861002 fmla v2.4s, v0.4s, v6.s[0] 401104: 4f851001 fmla v1.4s, v0.4s, v5.s[0] |
我们粗略地计算乘加指令和load指令的比例的话,(ldp这种一次load两个寄存器的指令用的周期应该略低于只load一个寄存器的指令,但是我们还是算其为2个load指令),为4/5 = 0.8
这对于矩阵乘法而言,并不是很好的计算访存比,对于矩阵乘法,总共需要的为,乘加计算为,
计算访存比是,问题在于我们的寄存器数量有限,不可能一次load后一直使用,因此我们只能尽可能地多使用已有的寄存器。
对于我上面写的代码,一个很容易的优化是,我只需要B的4个float,理论上一个load指令就可以全部加载进来,只是后面的普通fma指令要变成fma_lane指令。
新的核心代码如下
1 2 3 4 5 6 |
a_ri = vld1q_f32(A + i * lda); b_vi0 = vld1q_f32(B); c_c0 = vfmaq_laneq_f32(c_c0, a_ri, b_vi0, 0); c_c1 = vfmaq_laneq_f32(c_c1, a_ri, b_vi0, 1); c_c2 = vfmaq_laneq_f32(c_c2, a_ri, b_vi0, 2); c_c3 = vfmaq_laneq_f32(c_c3, a_ri, b_vi0, 3); |
汇编指令如下,原来的1个ldr指令2个ldp指令变成了2个ldr指令,只load了2次SIMD寄存器,乘加指令与load指令的计算/访存比变为4 / 2 = 2.0
1 2 3 4 5 6 |
4010e0: 3cc104a1 ldr q1, [x5], #16 4010e4: 3dc00080 ldr q0, [x4] 4010f0: 4f811005 fmla v5.4s, v0.4s, v1.s[0] 4010f4: 4fa11004 fmla v4.4s, v0.4s, v1.s[1] 4010f8: 4f811803 fmla v3.4s, v0.4s, v1.s[2] 4010fc: 4fa11802 fmla v2.4s, v0.4s, v1.s[3] |
优化后的平均性能为17.847 Gflops,性能有小部分提升。
循环展开,A、B一次加载4x4
之前我们的kernel一次只加载了A的4x1和B的1x4的元素,但是考虑到每次循环都有一次add和cmp指令,以及充分利用流水线的思想,我们可以把kernel的循环展开,一次加载4个A的4x1和4个B的1x4的元素,这样就变为一次加载4x4的A中元素和4x4的B中元素,代码如下
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 |
a_c0_i0 = vld1q_f32(A + i * 4); a_c0_i1 = vld1q_f32(A + i * 4 + 4); a_c0_i2 = vld1q_f32(A + i * 4 + 8); a_c0_i3 = vld1q_f32(A + i * 4 + 12); b_vi0_0 = vld1q_f32(B + 0); b_vi1_0 = vld1q_f32(B + 4); b_vi2_0 = vld1q_f32(B + 8); b_vi3_0 = vld1q_f32(B + 12); c_c0 = vaddq_f32(vaddq_f32(vmulq_laneq_f32(a_c0_i0, b_vi0_0, 0), vmulq_laneq_f32(a_c0_i1, b_vi1_0, 0)) , vaddq_f32(vmulq_laneq_f32(a_c0_i2, b_vi2_0, 0), vfmaq_laneq_f32(c_c0, a_c0_i3, b_vi3_0, 0))); c_c1 = vaddq_f32(vaddq_f32(vmulq_laneq_f32(a_c0_i0, b_vi0_0, 1), vmulq_laneq_f32(a_c0_i1, b_vi1_0, 1)) , vaddq_f32(vmulq_laneq_f32(a_c0_i2, b_vi2_0, 1), vfmaq_laneq_f32(c_c1, a_c0_i3, b_vi3_0, 1))); c_c2 = vaddq_f32(vaddq_f32(vmulq_laneq_f32(a_c0_i0, b_vi0_0, 2), vmulq_laneq_f32(a_c0_i1, b_vi1_0, 2)) , vaddq_f32(vmulq_laneq_f32(a_c0_i2, b_vi2_0, 2), vfmaq_laneq_f32(c_c2, a_c0_i3, b_vi3_0, 2))); c_c3 = vaddq_f32(vaddq_f32(vmulq_laneq_f32(a_c0_i0, b_vi0_0, 3), vmulq_laneq_f32(a_c0_i1, b_vi1_0, 3)) , vaddq_f32(vmulq_laneq_f32(a_c0_i2, b_vi2_0, 3), vfmaq_laneq_f32(c_c3, a_c0_i3, b_vi3_0, 3))); |
转换为汇编如下,16个乘加指令,4个fadd指令,1个ldp指令,6个ldur指令,总共load了8个SIMD寄存器,计算/访存比为2.5,但是20个乘/加指令中只有16个是必要的,因此这里的性能反而会下降。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 |
4011d0: ad40c0a0 ldp q0, q16, [x5, #16] 4011d4: 910100a5 add x5, x5, #0x40 4011d8: 3cdf00a7 ldur q7, [x5, #-16] 4011dc: 91010021 add x1, x1, #0x40 4011e0: 3cdd0025 ldur q5, [x1, #-48] 4011e4: 3cdf0026 ldur q6, [x1, #-16] 4011e8: 4f8098b1 fmul v17.4s, v5.4s, v0.s[2] 4011ec: 4f8090b3 fmul v19.4s, v5.4s, v0.s[0] 4011f0: 4f8710c4 fmla v4.4s, v6.4s, v7.s[0] 4011f4: 4fa710c3 fmla v3.4s, v6.4s, v7.s[1] 4011f8: 4f8718c2 fmla v2.4s, v6.4s, v7.s[2] 4011fc: 4fa718c1 fmla v1.4s, v6.4s, v7.s[3] 401200: 3cde0027 ldur q7, [x1, #-32] 401204: 4fa090b2 fmul v18.4s, v5.4s, v0.s[1] 401208: 4fa098a0 fmul v0.4s, v5.4s, v0.s[3] 40120c: 4f9010e4 fmla v4.4s, v7.4s, v16.s[0] 401210: 4fb010e3 fmla v3.4s, v7.4s, v16.s[1] 401214: 4f9018e2 fmla v2.4s, v7.4s, v16.s[2] 401218: 4fb018e1 fmla v1.4s, v7.4s, v16.s[3] 40121c: 4eb11e27 mov v7.16b, v17.16b 401220: 3cdc00a6 ldur q6, [x5, #-64] 401224: eb0200bf cmp x5, x2 401228: 3cdc0025 ldur q5, [x1, #-64] 40122c: 4f8610b3 fmla v19.4s, v5.4s, v6.s[0] 401230: 4fa610b2 fmla v18.4s, v5.4s, v6.s[1] 401234: 4f8618a7 fmla v7.4s, v5.4s, v6.s[2] 401238: 4fa618a0 fmla v0.4s, v5.4s, v6.s[3] 40123c: 4e33d484 fadd v4.4s, v4.4s, v19.4s 401240: 4e32d463 fadd v3.4s, v3.4s, v18.4s 401244: 4e27d442 fadd v2.4s, v2.4s, v7.4s 401248: 4e20d421 fadd v1.4s, v1.4s, v0.4s |
代码的平均性能只有15.969 Gflops
重新排布指令,结合乘加
上面的代码中的求和部分有一些是不必要的,只要写成部分和,循环结束后再规约求和,另外还有一些求和可以利用fma指令在计算乘法时顺便求出,因此我们重新排布了指令如下
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 |
a_c0_i0 = vld1q_f32(A + i * 4); a_c0_i1 = vld1q_f32(A + i * 4 + 4); a_c0_i2 = vld1q_f32(A + i * 4 + 8); a_c0_i3 = vld1q_f32(A + i * 4 + 12); b_vi0_0 = vld1q_f32(B + 0); b_vi1_0 = vld1q_f32(B + 4); b_vi2_0 = vld1q_f32(B + 8); b_vi3_0 = vld1q_f32(B + 12); temp_v0 = vfmaq_laneq_f32(c_c0, a_c0_i0, b_vi0_0, 0); c_c0 = vfmaq_laneq_f32(temp_v0, a_c0_i1, b_vi1_0, 0); temp_v3 = vfmaq_laneq_f32(c_c1, a_c0_i1, b_vi1_0, 1); c_c1 = vfmaq_laneq_f32(temp_v3, a_c0_i0, b_vi0_0, 1); temp_v0 = vfmaq_laneq_f32(c_c2, a_c0_i0, b_vi0_0, 2); c_c2 = vfmaq_laneq_f32(temp_v0, a_c0_i1, b_vi1_0, 2); temp_v3 = vfmaq_laneq_f32(c_c3, a_c0_i1, b_vi1_0, 3); c_c3 = vfmaq_laneq_f32(temp_v3, a_c0_i0, b_vi0_0, 3); temp_v0 = vfmaq_laneq_f32(part1_c0, a_c0_i2, b_vi2_0, 0); part1_c0 = vfmaq_laneq_f32(temp_v0, a_c0_i3, b_vi3_0, 0); temp_v3 = vfmaq_laneq_f32(part1_c1, a_c0_i3, b_vi3_0, 1); part1_c1 = vfmaq_laneq_f32(temp_v3, a_c0_i2, b_vi2_0, 1); temp_v0 = vfmaq_laneq_f32(part1_c2, a_c0_i2, b_vi2_0, 2); part1_c2 = vfmaq_laneq_f32(temp_v0, a_c0_i3, b_vi3_0, 2); temp_v3 = vfmaq_laneq_f32(part1_c3, a_c0_i3, b_vi3_0, 3); part1_c3 = vfmaq_laneq_f32(temp_v3, a_c0_i2, b_vi2_0, 3); |
生成的汇编如下,浮点相关的全为乘加指令,4个ldp指令load 8个寄存器,16个fma指令,计算访存比为2.0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 |
4011e0: ad405854 ldp q20, q22, [x2] 4011e4: ad405cb5 ldp q21, q23, [x5] 4011e8: ad414850 ldp q16, q18, [x2, #32] 4011ec: 91010042 add x2, x2, #0x40 4011f0: ad414cb1 ldp q17, q19, [x5, #32] 4011f4: 910100a5 add x5, x5, #0x40 4011f8: 4f951287 fmla v7.4s, v20.4s, v21.s[0] 4011fc: eb0100bf cmp x5, x1 401200: 4f951a83 fmla v3.4s, v20.4s, v21.s[2] 401204: 4fb712c5 fmla v5.4s, v22.4s, v23.s[1] 401208: 4fb71ac1 fmla v1.4s, v22.4s, v23.s[3] 40120c: 4f911206 fmla v6.4s, v16.4s, v17.s[0] 401210: 4f911a02 fmla v2.4s, v16.4s, v17.s[2] 401214: 4fb31244 fmla v4.4s, v18.4s, v19.s[1] 401218: 4fb31a40 fmla v0.4s, v18.4s, v19.s[3] 40121c: 4f9712c7 fmla v7.4s, v22.4s, v23.s[0] 401220: 4f971ac3 fmla v3.4s, v22.4s, v23.s[2] 401224: 4fb51285 fmla v5.4s, v20.4s, v21.s[1] 401228: 4fb51a81 fmla v1.4s, v20.4s, v21.s[3] 40122c: 4f931246 fmla v6.4s, v18.4s, v19.s[0] 401230: 4f931a42 fmla v2.4s, v18.4s, v19.s[2] 401234: 4fb11204 fmla v4.4s, v16.4s, v17.s[1] 401238: 4fb11a00 fmla v0.4s, v16.4s, v17.s[3] |
平均性能为25.952 Gflops,开了-O3优化后平均性能为26.124Gflops,峰值性能为27.8 Gflops
再增加循环展开层数
之前一次加载16个A中的元素,如果一次加载32个A中的float,进行8x4的一次load,则性能还能有微弱提升
平均性能为26.22 Gflops,峰值性能为28.3 Gflops
其实接下来还有更多优化方法,例如Prefetch技术,在本轮迭代的计算中就先fetch下一轮迭代会用到的数据,充分利用流水线隐藏延迟,能够进一步提高性能。但由于这些技术高度和具体CPU架构相关且测试较为复杂, 因此我们就不在此讨论。
关于研究矩阵乘法优化的思考
我们在这里探求单线程的矩阵乘法有没有什么用呢?其实对于绝大部分的人都是用不到的,而且我们研究了许久也连行业最先进水平也没赶上。在实际应用时,绝大部分有矩阵计算需求的人应该都会调用其他的科学计算框架。那么,我们为什么还要在这里研究矩阵乘法的优化呢?
从功利的角度回答,研究矩阵乘法优化的过程中,我们对于如何利用计算机的体系结构特点来进行优化进行了深入的学习和实践,这种经验在其他需要优化的场景中可能是有用的。另外,如果有一天我们需要在一个比较新的计算硬件上用到矩阵乘法,而常用的科学计算库还没有对该硬件进行针对性优化的话,我们或许能够亲自动手优化它。
从非功利的角度回答,just for fun!
-
https://en.wikipedia.org/wiki/Row-_and_column-major_order↩︎