Browse Source

cleanup of dgemv_n_bulldozer.S and optimization of inner loop

tags/v0.2.7
wernsaar 12 years ago
parent
commit
7c8227101b
1 changed files with 155 additions and 235 deletions
  1. +155
    -235
      kernel/x86_64/dgemv_n_bulldozer.S

+ 155
- 235
kernel/x86_64/dgemv_n_bulldozer.S View File

@@ -40,6 +40,8 @@
#include "common.h"
#include "l2param.h"

#undef ALIGNED_ACCESS

#define A_PRE 256

#define VMOVUPS_A1(OFF, ADDR, REGS) vmovups OFF(ADDR), REGS
@@ -304,11 +306,6 @@
sarq $3, I
jle .L15

VMOVUPS_A1(-16 * SIZE, A1, %xmm4)
VMOVUPS_A1(-14 * SIZE, A1, %xmm5)
VMOVUPS_A1(-12 * SIZE, A1, %xmm6)
VMOVUPS_A1(-10 * SIZE, A1, %xmm7)

VMOVUPS_YL1(-16 * SIZE, Y1, %xmm0)
VMOVUPS_YL1(-14 * SIZE, Y1, %xmm1)
VMOVUPS_YL1(-12 * SIZE, Y1, %xmm2)
@@ -316,105 +313,60 @@

decq I
jle .L14
ALIGN_3
.align 32

.L13:


vfmaddpd %xmm0 , %xmm8 , %xmm4 , %xmm0
vfmaddpd %xmm1 , %xmm8 , %xmm5 , %xmm1
vfmaddpd %xmm2 , %xmm8 , %xmm6 , %xmm2
vfmaddpd %xmm3 , %xmm8 , %xmm7 , %xmm3
prefetchnta A_PRE(A1)
vfmaddpd %xmm0 , -16 * SIZE(A1) , %xmm8, %xmm0
vfmaddpd %xmm1 , -14 * SIZE(A1) , %xmm8, %xmm1
vfmaddpd %xmm2 , -12 * SIZE(A1) , %xmm8, %xmm2
vfmaddpd %xmm3 , -10 * SIZE(A1) , %xmm8, %xmm3
nop

VMOVUPS_A2(-16 * SIZE, A1, LDA, 1, %xmm4)
VMOVUPS_A2(-14 * SIZE, A1, LDA, 1, %xmm5)
prefetchnta A_PRE(A1,LDA,1)
VMOVUPS_A2(-12 * SIZE, A1, LDA, 1, %xmm6)
VMOVUPS_A2(-10 * SIZE, A1, LDA, 1, %xmm7)

vfmaddpd %xmm0 , -16 * SIZE(A1, LDA, 1) , %xmm9 , %xmm0
vfmaddpd %xmm1 , -14 * SIZE(A1, LDA, 1) , %xmm9 , %xmm1
vfmaddpd %xmm2 , -12 * SIZE(A1, LDA, 1) , %xmm9 , %xmm2
vfmaddpd %xmm3 , -10 * SIZE(A1, LDA, 1) , %xmm9 , %xmm3

vfmaddpd %xmm0 , %xmm9 , %xmm4 , %xmm0
vfmaddpd %xmm1 , %xmm9 , %xmm5 , %xmm1
vfmaddpd %xmm2 , %xmm9 , %xmm6 , %xmm2
vfmaddpd %xmm3 , %xmm9 , %xmm7 , %xmm3

VMOVUPS_A2(-16 * SIZE, A1, LDA, 2, %xmm4)
VMOVUPS_A2(-14 * SIZE, A1, LDA, 2, %xmm5)
prefetchnta A_PRE(A1,LDA,2)
VMOVUPS_A2(-12 * SIZE, A1, LDA, 2, %xmm6)
VMOVUPS_A2(-10 * SIZE, A1, LDA, 2, %xmm7)


vfmaddpd %xmm0 , %xmm10, %xmm4 , %xmm0
vfmaddpd %xmm1 , %xmm10, %xmm5 , %xmm1
vfmaddpd %xmm2 , %xmm10, %xmm6 , %xmm2
vfmaddpd %xmm3 , %xmm10, %xmm7 , %xmm3
vfmaddpd %xmm0 , -16 * SIZE(A1, LDA, 2) , %xmm10, %xmm0
vfmaddpd %xmm1 , -14 * SIZE(A1, LDA, 2) , %xmm10, %xmm1
vfmaddpd %xmm2 , -12 * SIZE(A1, LDA, 2) , %xmm10, %xmm2
vfmaddpd %xmm3 , -10 * SIZE(A1, LDA, 2) , %xmm10, %xmm3

VMOVUPS_A2(-16 * SIZE, A1, LDA3, 1, %xmm4)
VMOVUPS_A2(-14 * SIZE, A1, LDA3, 1, %xmm5)
prefetchnta A_PRE(A1,LDA3,1)
VMOVUPS_A2(-12 * SIZE, A1, LDA3, 1, %xmm6)
VMOVUPS_A2(-10 * SIZE, A1, LDA3, 1, %xmm7)

vfmaddpd %xmm0 , -16 * SIZE(A1, LDA3, 1) , %xmm11, %xmm0
vfmaddpd %xmm1 , -14 * SIZE(A1, LDA3, 1) , %xmm11, %xmm1
vfmaddpd %xmm2 , -12 * SIZE(A1, LDA3, 1) , %xmm11, %xmm2
vfmaddpd %xmm3 , -10 * SIZE(A1, LDA3, 1) , %xmm11, %xmm3

vfmaddpd %xmm0 , %xmm11, %xmm4 , %xmm0
vfmaddpd %xmm1 , %xmm11, %xmm5 , %xmm1
vfmaddpd %xmm2 , %xmm11, %xmm6 , %xmm2
vfmaddpd %xmm3 , %xmm11, %xmm7 , %xmm3

VMOVUPS_A1(-16 * SIZE, A2, %xmm4)
VMOVUPS_A1(-14 * SIZE, A2, %xmm5)
prefetchnta A_PRE(A2)
VMOVUPS_A1(-12 * SIZE, A2, %xmm6)
VMOVUPS_A1(-10 * SIZE, A2, %xmm7)


vfmaddpd %xmm0 , %xmm12, %xmm4 , %xmm0
vfmaddpd %xmm1 , %xmm12, %xmm5 , %xmm1
vfmaddpd %xmm2 , %xmm12, %xmm6 , %xmm2
vfmaddpd %xmm3 , %xmm12, %xmm7 , %xmm3
vfmaddpd %xmm0 , -16 * SIZE(A2) , %xmm12, %xmm0
vfmaddpd %xmm1 , -14 * SIZE(A2) , %xmm12, %xmm1
vfmaddpd %xmm2 , -12 * SIZE(A2) , %xmm12, %xmm2
vfmaddpd %xmm3 , -10 * SIZE(A2) , %xmm12, %xmm3
nop

VMOVUPS_A2(-16 * SIZE, A2, LDA, 1, %xmm4)
VMOVUPS_A2(-14 * SIZE, A2, LDA, 1, %xmm5)
prefetchnta A_PRE(A2,LDA,1)
VMOVUPS_A2(-12 * SIZE, A2, LDA, 1, %xmm6)
VMOVUPS_A2(-10 * SIZE, A2, LDA, 1, %xmm7)


vfmaddpd %xmm0 , %xmm13, %xmm4 , %xmm0
vfmaddpd %xmm1 , %xmm13, %xmm5 , %xmm1
vfmaddpd %xmm2 , %xmm13, %xmm6 , %xmm2
vfmaddpd %xmm3 , %xmm13, %xmm7 , %xmm3
vfmaddpd %xmm0 , -16 * SIZE(A2, LDA, 1) , %xmm13, %xmm0
vfmaddpd %xmm1 , -14 * SIZE(A2, LDA, 1) , %xmm13, %xmm1
vfmaddpd %xmm2 , -12 * SIZE(A2, LDA, 1) , %xmm13, %xmm2
vfmaddpd %xmm3 , -10 * SIZE(A2, LDA, 1) , %xmm13, %xmm3

VMOVUPS_A2(-16 * SIZE, A2, LDA, 2, %xmm4)
VMOVUPS_A2(-14 * SIZE, A2, LDA, 2, %xmm5)
prefetchnta A_PRE(A2,LDA,2)
VMOVUPS_A2(-12 * SIZE, A2, LDA, 2, %xmm6)
VMOVUPS_A2(-10 * SIZE, A2, LDA, 2, %xmm7)
vfmaddpd %xmm0 , -16 * SIZE(A2, LDA, 2) , %xmm14, %xmm0
vfmaddpd %xmm1 , -14 * SIZE(A2, LDA, 2) , %xmm14, %xmm1
vfmaddpd %xmm2 , -12 * SIZE(A2, LDA, 2) , %xmm14, %xmm2
vfmaddpd %xmm3 , -10 * SIZE(A2, LDA, 2) , %xmm14, %xmm3


vfmaddpd %xmm0 , %xmm14, %xmm4 , %xmm0
vfmaddpd %xmm1 , %xmm14, %xmm5 , %xmm1
vfmaddpd %xmm2 , %xmm14, %xmm6 , %xmm2
vfmaddpd %xmm3 , %xmm14, %xmm7 , %xmm3

VMOVUPS_A2(-16 * SIZE, A2, LDA3, 1, %xmm4)
VMOVUPS_A2(-14 * SIZE, A2, LDA3, 1, %xmm5)
prefetchnta A_PRE(A2,LDA3,1)
VMOVUPS_A2(-12 * SIZE, A2, LDA3, 1, %xmm6)
VMOVUPS_A2(-10 * SIZE, A2, LDA3, 1, %xmm7)


vfmaddpd %xmm0 , %xmm15, %xmm4 , %xmm0
vfmaddpd %xmm1 , %xmm15, %xmm5 , %xmm1
vfmaddpd %xmm2 , %xmm15, %xmm6 , %xmm2
vfmaddpd %xmm3 , %xmm15, %xmm7 , %xmm3

VMOVUPS_A1( -8 * SIZE, A1, %xmm4)
VMOVUPS_A1( -6 * SIZE, A1, %xmm5)
prefetchnta A_PRE(A1)
VMOVUPS_A1( -4 * SIZE, A1, %xmm6)
VMOVUPS_A1( -2 * SIZE, A1, %xmm7)
vfmaddpd %xmm0 , -16 * SIZE(A2, LDA3, 1) , %xmm15, %xmm0
vfmaddpd %xmm1 , -14 * SIZE(A2, LDA3, 1) , %xmm15, %xmm1
vfmaddpd %xmm2 , -12 * SIZE(A2, LDA3, 1) , %xmm15, %xmm2
vfmaddpd %xmm3 , -10 * SIZE(A2, LDA3, 1) , %xmm15, %xmm3


VMOVUPS_YS1(-16 * SIZE, Y1, %xmm0)
@@ -439,80 +391,48 @@
ALIGN_3

.L14:
vfmaddpd %xmm0 , %xmm8 , %xmm4 , %xmm0
vfmaddpd %xmm1 , %xmm8 , %xmm5 , %xmm1
vfmaddpd %xmm2 , %xmm8 , %xmm6 , %xmm2
vfmaddpd %xmm3 , %xmm8 , %xmm7 , %xmm3

VMOVUPS_A2(-16 * SIZE, A1, LDA, 1, %xmm4)
VMOVUPS_A2(-14 * SIZE, A1, LDA, 1, %xmm5)
VMOVUPS_A2(-12 * SIZE, A1, LDA, 1, %xmm6)
VMOVUPS_A2(-10 * SIZE, A1, LDA, 1, %xmm7)
vfmaddpd %xmm0 , -16 * SIZE(A1) , %xmm8, %xmm0
vfmaddpd %xmm1 , -14 * SIZE(A1) , %xmm8, %xmm1
vfmaddpd %xmm2 , -12 * SIZE(A1) , %xmm8, %xmm2
vfmaddpd %xmm3 , -10 * SIZE(A1) , %xmm8, %xmm3

vfmaddpd %xmm0 , %xmm9 , %xmm4 , %xmm0
vfmaddpd %xmm1 , %xmm9 , %xmm5 , %xmm1
vfmaddpd %xmm2 , %xmm9 , %xmm6 , %xmm2
vfmaddpd %xmm3 , %xmm9 , %xmm7 , %xmm3
vfmaddpd %xmm0 , -16 * SIZE(A1, LDA, 1) , %xmm9 , %xmm0
vfmaddpd %xmm1 , -14 * SIZE(A1, LDA, 1) , %xmm9 , %xmm1
vfmaddpd %xmm2 , -12 * SIZE(A1, LDA, 1) , %xmm9 , %xmm2
vfmaddpd %xmm3 , -10 * SIZE(A1, LDA, 1) , %xmm9 , %xmm3

VMOVUPS_A2(-16 * SIZE, A1, LDA, 2, %xmm4)
VMOVUPS_A2(-14 * SIZE, A1, LDA, 2, %xmm5)
VMOVUPS_A2(-12 * SIZE, A1, LDA, 2, %xmm6)
VMOVUPS_A2(-10 * SIZE, A1, LDA, 2, %xmm7)
vfmaddpd %xmm0 , -16 * SIZE(A1, LDA, 2) , %xmm10, %xmm0
vfmaddpd %xmm1 , -14 * SIZE(A1, LDA, 2) , %xmm10, %xmm1
vfmaddpd %xmm2 , -12 * SIZE(A1, LDA, 2) , %xmm10, %xmm2
vfmaddpd %xmm3 , -10 * SIZE(A1, LDA, 2) , %xmm10, %xmm3

vfmaddpd %xmm0 , %xmm10, %xmm4 , %xmm0
vfmaddpd %xmm1 , %xmm10, %xmm5 , %xmm1
vfmaddpd %xmm2 , %xmm10, %xmm6 , %xmm2
vfmaddpd %xmm3 , %xmm10, %xmm7 , %xmm3

VMOVUPS_A2(-16 * SIZE, A1, LDA3, 1, %xmm4)
VMOVUPS_A2(-14 * SIZE, A1, LDA3, 1, %xmm5)
VMOVUPS_A2(-12 * SIZE, A1, LDA3, 1, %xmm6)
VMOVUPS_A2(-10 * SIZE, A1, LDA3, 1, %xmm7)
vfmaddpd %xmm0 , -16 * SIZE(A1, LDA3, 1) , %xmm11, %xmm0
vfmaddpd %xmm1 , -14 * SIZE(A1, LDA3, 1) , %xmm11, %xmm1
vfmaddpd %xmm2 , -12 * SIZE(A1, LDA3, 1) , %xmm11, %xmm2
vfmaddpd %xmm3 , -10 * SIZE(A1, LDA3, 1) , %xmm11, %xmm3

vfmaddpd %xmm0 , %xmm11, %xmm4 , %xmm0
vfmaddpd %xmm1 , %xmm11, %xmm5 , %xmm1
vfmaddpd %xmm2 , %xmm11, %xmm6 , %xmm2
vfmaddpd %xmm3 , %xmm11, %xmm7 , %xmm3
vfmaddpd %xmm0 , -16 * SIZE(A2) , %xmm12, %xmm0
vfmaddpd %xmm1 , -14 * SIZE(A2) , %xmm12, %xmm1
vfmaddpd %xmm2 , -12 * SIZE(A2) , %xmm12, %xmm2
vfmaddpd %xmm3 , -10 * SIZE(A2) , %xmm12, %xmm3

VMOVUPS_A1(-16 * SIZE, A2, %xmm4)
VMOVUPS_A1(-14 * SIZE, A2, %xmm5)
VMOVUPS_A1(-12 * SIZE, A2, %xmm6)
VMOVUPS_A1(-10 * SIZE, A2, %xmm7)
vfmaddpd %xmm0 , -16 * SIZE(A2, LDA, 1) , %xmm13, %xmm0
vfmaddpd %xmm1 , -14 * SIZE(A2, LDA, 1) , %xmm13, %xmm1
vfmaddpd %xmm2 , -12 * SIZE(A2, LDA, 1) , %xmm13, %xmm2
vfmaddpd %xmm3 , -10 * SIZE(A2, LDA, 1) , %xmm13, %xmm3

vfmaddpd %xmm0 , %xmm12, %xmm4 , %xmm0
vfmaddpd %xmm1 , %xmm12, %xmm5 , %xmm1
vfmaddpd %xmm2 , %xmm12, %xmm6 , %xmm2
vfmaddpd %xmm3 , %xmm12, %xmm7 , %xmm3
vfmaddpd %xmm0 , -16 * SIZE(A2, LDA, 2) , %xmm14, %xmm0
vfmaddpd %xmm1 , -14 * SIZE(A2, LDA, 2) , %xmm14, %xmm1
vfmaddpd %xmm2 , -12 * SIZE(A2, LDA, 2) , %xmm14, %xmm2
vfmaddpd %xmm3 , -10 * SIZE(A2, LDA, 2) , %xmm14, %xmm3

VMOVUPS_A2(-16 * SIZE, A2, LDA, 1, %xmm4)
VMOVUPS_A2(-14 * SIZE, A2, LDA, 1, %xmm5)
VMOVUPS_A2(-12 * SIZE, A2, LDA, 1, %xmm6)
VMOVUPS_A2(-10 * SIZE, A2, LDA, 1, %xmm7)

vfmaddpd %xmm0 , %xmm13, %xmm4 , %xmm0
vfmaddpd %xmm1 , %xmm13, %xmm5 , %xmm1
vfmaddpd %xmm2 , %xmm13, %xmm6 , %xmm2
vfmaddpd %xmm3 , %xmm13, %xmm7 , %xmm3

VMOVUPS_A2(-16 * SIZE, A2, LDA, 2, %xmm4)
VMOVUPS_A2(-14 * SIZE, A2, LDA, 2, %xmm5)
VMOVUPS_A2(-12 * SIZE, A2, LDA, 2, %xmm6)
VMOVUPS_A2(-10 * SIZE, A2, LDA, 2, %xmm7)

vfmaddpd %xmm0 , %xmm14, %xmm4 , %xmm0
vfmaddpd %xmm1 , %xmm14, %xmm5 , %xmm1
vfmaddpd %xmm2 , %xmm14, %xmm6 , %xmm2
vfmaddpd %xmm3 , %xmm14, %xmm7 , %xmm3
vfmaddpd %xmm0 , -16 * SIZE(A2, LDA3, 1) , %xmm15, %xmm0
vfmaddpd %xmm1 , -14 * SIZE(A2, LDA3, 1) , %xmm15, %xmm1
vfmaddpd %xmm2 , -12 * SIZE(A2, LDA3, 1) , %xmm15, %xmm2
vfmaddpd %xmm3 , -10 * SIZE(A2, LDA3, 1) , %xmm15, %xmm3

VMOVUPS_A2(-16 * SIZE, A2, LDA3, 1, %xmm4)
VMOVUPS_A2(-14 * SIZE, A2, LDA3, 1, %xmm5)
VMOVUPS_A2(-12 * SIZE, A2, LDA3, 1, %xmm6)
VMOVUPS_A2(-10 * SIZE, A2, LDA3, 1, %xmm7)

vfmaddpd %xmm0 , %xmm15, %xmm4 , %xmm0
vfmaddpd %xmm1 , %xmm15, %xmm5 , %xmm1
vfmaddpd %xmm2 , %xmm15, %xmm6 , %xmm2
vfmaddpd %xmm3 , %xmm15, %xmm7 , %xmm3

VMOVUPS_YS1(-16 * SIZE, Y1, %xmm0)
VMOVUPS_YS1(-14 * SIZE, Y1, %xmm1)
@@ -1364,8 +1284,8 @@
ALIGN_3

.L5X:
movhpd -16 * SIZE(A1, LDA), %xmm8
movhpd -16 * SIZE(A2, LDA), %xmm9
vmovhpd -16 * SIZE(A1, LDA), %xmm8, %xmm8
vmovhpd -16 * SIZE(A2, LDA), %xmm9, %xmm9

movq MM, I
sarq $3, I
@@ -1400,18 +1320,18 @@
VMOVUPS_A2(-11 * SIZE, A1, LDA, 1, %xmm6)


shufpd $1, %xmm4, %xmm8
vshufpd $0x01, %xmm4, %xmm8, %xmm8
vfmaddpd %xmm0 , %xmm13 , %xmm8 , %xmm0
VMOVUPS_A2( -9 * SIZE, A1, LDA, 1, %xmm8)
shufpd $1, %xmm5, %xmm4
vshufpd $0x01, %xmm5, %xmm4, %xmm4
vfmaddpd %xmm1 , %xmm13 , %xmm4 , %xmm1
VMOVUPS_A1(-16 * SIZE, A2, %xmm4)

prefetchnta A_PRE(A2)
shufpd $1, %xmm6, %xmm5
vshufpd $0x01, %xmm6, %xmm5, %xmm5
vfmaddpd %xmm2 , %xmm13 , %xmm5 , %xmm2
VMOVUPS_A1(-14 * SIZE, A2, %xmm5)
shufpd $1, %xmm8, %xmm6
vshufpd $0x01, %xmm8, %xmm6, %xmm6
vfmaddpd %xmm3 , %xmm13 , %xmm6 , %xmm3
VMOVUPS_A1(-12 * SIZE, A2, %xmm6)

@@ -1428,18 +1348,18 @@
VMOVUPS_A2(-11 * SIZE, A2, LDA, 1, %xmm6)


shufpd $1, %xmm4, %xmm9
vshufpd $0x01, %xmm4, %xmm9, %xmm9
vfmaddpd %xmm0 , %xmm15 , %xmm9 , %xmm0
VMOVUPS_A2( -9 * SIZE, A2, LDA, 1, %xmm9)
shufpd $1, %xmm5, %xmm4
vshufpd $0x01, %xmm5, %xmm4, %xmm4
vfmaddpd %xmm1 , %xmm15 , %xmm4 , %xmm1
VMOVUPS_A1( -8 * SIZE, A1, %xmm4)

prefetchnta A_PRE(A1)
shufpd $1, %xmm6, %xmm5
vshufpd $0x01, %xmm6, %xmm5, %xmm5
vfmaddpd %xmm2 , %xmm15 , %xmm5 , %xmm2
VMOVUPS_A1( -6 * SIZE, A1, %xmm5)
shufpd $1, %xmm9, %xmm6
vshufpd $0x01, %xmm9, %xmm6, %xmm6
vfmaddpd %xmm3 , %xmm15 , %xmm6 , %xmm3
VMOVUPS_A1( -4 * SIZE, A1, %xmm6)

@@ -1477,17 +1397,17 @@
vfmaddpd %xmm3 , %xmm12 , %xmm7 , %xmm3
VMOVUPS_A2(-11 * SIZE, A1, LDA, 1, %xmm6)

shufpd $1, %xmm4, %xmm8
vshufpd $0x01, %xmm4, %xmm8, %xmm8
vfmaddpd %xmm0 , %xmm13 , %xmm8 , %xmm0
VMOVUPS_A2( -9 * SIZE, A1, LDA, 1, %xmm8)
shufpd $1, %xmm5, %xmm4
vshufpd $0x01, %xmm5, %xmm4, %xmm4
vfmaddpd %xmm1 , %xmm13 , %xmm4 , %xmm1
VMOVUPS_A1(-16 * SIZE, A2, %xmm4)

shufpd $1, %xmm6, %xmm5
vshufpd $0x01, %xmm6, %xmm5, %xmm5
vfmaddpd %xmm2 , %xmm13 , %xmm5 , %xmm2
VMOVUPS_A1(-14 * SIZE, A2, %xmm5)
shufpd $1, %xmm8, %xmm6
vshufpd $0x01, %xmm8, %xmm6, %xmm6
vfmaddpd %xmm3 , %xmm13 , %xmm6 , %xmm3
VMOVUPS_A1(-12 * SIZE, A2, %xmm6)

@@ -1501,15 +1421,15 @@
vfmaddpd %xmm3 , %xmm14 , %xmm7 , %xmm3
VMOVUPS_A2(-11 * SIZE, A2, LDA, 1, %xmm6)

shufpd $1, %xmm4, %xmm9
vshufpd $0x01, %xmm4, %xmm9, %xmm9
vfmaddpd %xmm0 , %xmm15 , %xmm9 , %xmm0
VMOVUPS_A2( -9 * SIZE, A2, LDA, 1, %xmm9)

shufpd $1, %xmm5, %xmm4
vshufpd $0x01, %xmm5, %xmm4, %xmm4
vfmaddpd %xmm1 , %xmm15 , %xmm4 , %xmm1
shufpd $1, %xmm6, %xmm5
vshufpd $0x01, %xmm6, %xmm5, %xmm5
vfmaddpd %xmm2 , %xmm15 , %xmm5 , %xmm2
shufpd $1, %xmm9, %xmm6
vshufpd $0x01, %xmm9, %xmm6, %xmm6
vfmaddpd %xmm3 , %xmm15 , %xmm6 , %xmm3

VMOVUPS_YS1(-16 * SIZE, Y1, %xmm0)
@@ -1538,10 +1458,10 @@
VMOVUPS_A2(-15 * SIZE, A1, LDA, 1, %xmm6)
VMOVUPS_A2(-13 * SIZE, A1, LDA, 1, %xmm7)

shufpd $1, %xmm6, %xmm8
vshufpd $0x01, %xmm6, %xmm8, %xmm8
vfmaddpd %xmm0 , %xmm13 , %xmm8 , %xmm0
movaps %xmm7, %xmm8
shufpd $1, %xmm7, %xmm6
vshufpd $0x01, %xmm7, %xmm6, %xmm6
vfmaddpd %xmm1 , %xmm13 , %xmm6 , %xmm1

VMOVUPS_A1(-16 * SIZE, A2, %xmm4)
@@ -1553,10 +1473,10 @@
VMOVUPS_A2(-15 * SIZE, A2, LDA, 1, %xmm6)
VMOVUPS_A2(-13 * SIZE, A2, LDA, 1, %xmm7)

shufpd $1, %xmm6, %xmm9
vshufpd $0x01, %xmm6, %xmm9, %xmm9
vfmaddpd %xmm0 , %xmm15 , %xmm9 , %xmm0
movaps %xmm7, %xmm9
shufpd $1, %xmm7, %xmm6
vshufpd $0x01, %xmm7, %xmm6, %xmm6
vfmaddpd %xmm1 , %xmm15 , %xmm6 , %xmm1

VMOVUPS_YS1(-16 * SIZE, Y1, %xmm0)
@@ -1579,11 +1499,11 @@
VMOVUPS_YL1(-16 * SIZE, Y1, %xmm0)

vfmaddpd %xmm0 , %xmm12 , %xmm4 , %xmm0
shufpd $1, %xmm5, %xmm8
vshufpd $0x01, %xmm5, %xmm8, %xmm8
vfmaddpd %xmm0 , %xmm13 , %xmm8 , %xmm0
movaps %xmm5, %xmm8
vfmaddpd %xmm0 , %xmm14 , %xmm6 , %xmm0
shufpd $1, %xmm7, %xmm9
vshufpd $0x01, %xmm7, %xmm9, %xmm9
vfmaddpd %xmm0 , %xmm15 , %xmm9 , %xmm0
movaps %xmm7, %xmm9

@@ -1601,9 +1521,9 @@
vmovsd -16 * SIZE(Y1), %xmm0

vmovsd -16 * SIZE(A1), %xmm4
shufpd $1, %xmm8, %xmm8
vshufpd $0x01, %xmm8, %xmm8, %xmm8
vmovsd -16 * SIZE(A2), %xmm6
shufpd $1, %xmm9, %xmm9
vshufpd $0x01, %xmm9, %xmm9, %xmm9

vfmaddsd %xmm0 , %xmm12 , %xmm4 , %xmm0
vfmaddsd %xmm0 , %xmm13 , %xmm8 , %xmm0
@@ -1668,7 +1588,7 @@
ALIGN_3

.L6X:
movhpd -16 * SIZE(A2), %xmm8
vmovhpd -16 * SIZE(A2), %xmm8, %xmm8

movq MM, I
sarq $3, I
@@ -1701,18 +1621,18 @@
VMOVUPS_A1(-11 * SIZE, A2, %xmm6)


shufpd $1, %xmm4, %xmm8
vshufpd $0x01, %xmm4, %xmm8, %xmm8
vfmaddpd %xmm0 , %xmm13 , %xmm8 , %xmm0
VMOVUPS_A1( -9 * SIZE, A2, %xmm8)
shufpd $1, %xmm5, %xmm4
vshufpd $0x01, %xmm5, %xmm4, %xmm4
vfmaddpd %xmm1 , %xmm13 , %xmm4 , %xmm1
VMOVUPS_A1( -8 * SIZE, A1, %xmm4)

prefetchnta A_PRE(A1)
shufpd $1, %xmm6, %xmm5
vshufpd $0x01, %xmm6, %xmm5, %xmm5
vfmaddpd %xmm2 , %xmm13 , %xmm5 , %xmm2
VMOVUPS_A1( -6 * SIZE, A1, %xmm5)
shufpd $1, %xmm8, %xmm6
vshufpd $0x01, %xmm8, %xmm6, %xmm6
vfmaddpd %xmm3 , %xmm13 , %xmm6 , %xmm3
VMOVUPS_A1( -4 * SIZE, A1, %xmm6)

@@ -1749,15 +1669,15 @@
vfmaddpd %xmm3 , %xmm12 , %xmm7 , %xmm3
VMOVUPS_A1(-11 * SIZE, A2, %xmm6)

shufpd $0x01, %xmm4, %xmm8
vshufpd $0x01, %xmm4, %xmm8, %xmm8
vfmaddpd %xmm0 , %xmm13 , %xmm8 , %xmm0
VMOVUPS_A1( -9 * SIZE, A2, %xmm8)
shufpd $0x01, %xmm5, %xmm4
vshufpd $0x01, %xmm5, %xmm4, %xmm4
vfmaddpd %xmm1 , %xmm13 , %xmm4 , %xmm1

shufpd $0x01, %xmm6, %xmm5
vshufpd $0x01, %xmm6, %xmm5, %xmm5
vfmaddpd %xmm2 , %xmm13 , %xmm5 , %xmm2
shufpd $0x01, %xmm8, %xmm6
vshufpd $0x01, %xmm8, %xmm6, %xmm6
vfmaddpd %xmm3 , %xmm13 , %xmm6 , %xmm3

VMOVUPS_YS1(-16 * SIZE, Y1, %xmm0)
@@ -1787,10 +1707,10 @@
VMOVUPS_A1(-15 * SIZE, A2, %xmm6)
VMOVUPS_A1(-13 * SIZE, A2, %xmm7)

shufpd $0x01, %xmm6, %xmm8
vshufpd $0x01, %xmm6, %xmm8, %xmm8
vfmaddpd %xmm0 , %xmm13 , %xmm8 , %xmm0
movaps %xmm7, %xmm8
shufpd $0x01, %xmm7, %xmm6
vshufpd $0x01, %xmm7, %xmm6, %xmm6
vfmaddpd %xmm1 , %xmm13 , %xmm6 , %xmm1

VMOVUPS_YS1(-16 * SIZE, Y1, %xmm0)
@@ -1811,7 +1731,7 @@
VMOVUPS_YL1(-16 * SIZE, Y1, %xmm0)

vfmaddpd %xmm0 , %xmm12 , %xmm4 , %xmm0
shufpd $0x01, %xmm5, %xmm8
vshufpd $0x01, %xmm5, %xmm8, %xmm8
vfmaddpd %xmm0 , %xmm13 , %xmm8 , %xmm0
movaps %xmm5, %xmm8

@@ -2009,7 +1929,7 @@
je .L910

vmovsd (Y), %xmm0
addsd (BUFFER), %xmm0
vaddsd (BUFFER), %xmm0, %xmm0
vmovsd %xmm0, (Y)

addq $SIZE, Y
@@ -2041,10 +1961,10 @@
vmovups 6 * SIZE(BUFFER), %xmm7


addpd %xmm4, %xmm0
addpd %xmm5, %xmm1
addpd %xmm6, %xmm2
addpd %xmm7, %xmm3
vaddpd %xmm4, %xmm0, %xmm0
vaddpd %xmm5, %xmm1, %xmm1
vaddpd %xmm6, %xmm2, %xmm2
vaddpd %xmm7, %xmm3, %xmm3

vmovups %xmm0, 0 * SIZE(Y)
vmovups %xmm1, 2 * SIZE(Y)
@@ -2071,8 +1991,8 @@
vmovups 0 * SIZE(BUFFER), %xmm4
vmovups 2 * SIZE(BUFFER), %xmm5

addpd %xmm4, %xmm0
addpd %xmm5, %xmm1
vaddpd %xmm4, %xmm0, %xmm0
vaddpd %xmm5, %xmm1, %xmm1

vmovups %xmm0, 0 * SIZE(Y)
vmovups %xmm1, 2 * SIZE(Y)
@@ -2089,7 +2009,7 @@

vmovups (BUFFER), %xmm4

addpd %xmm4, %xmm0
vaddpd %xmm4, %xmm0, %xmm0

vmovups %xmm0, (Y)

@@ -2105,7 +2025,7 @@

vmovsd 0 * SIZE(BUFFER), %xmm4

addsd %xmm4, %xmm0
vaddsd %xmm4, %xmm0, %xmm0

vmovsd %xmm0, (Y)
ALIGN_3
@@ -2133,16 +2053,16 @@
vmovups 5 * SIZE(BUFFER), %xmm7
vmovups 7 * SIZE(BUFFER), %xmm8

shufpd $0x01, %xmm5, %xmm4
shufpd $0x01, %xmm6, %xmm5
shufpd $0x01, %xmm7, %xmm6
shufpd $0x01, %xmm8, %xmm7
vshufpd $0x01, %xmm5, %xmm4, %xmm4
vshufpd $0x01, %xmm6, %xmm5, %xmm5
vshufpd $0x01, %xmm7, %xmm6, %xmm6
vshufpd $0x01, %xmm8, %xmm7, %xmm7


addpd %xmm4, %xmm0
addpd %xmm5, %xmm1
addpd %xmm6, %xmm2
addpd %xmm7, %xmm3
vaddpd %xmm4, %xmm0, %xmm0
vaddpd %xmm5, %xmm1, %xmm1
vaddpd %xmm6, %xmm2, %xmm2
vaddpd %xmm7, %xmm3, %xmm3

vmovups %xmm0, 0 * SIZE(Y)
vmovups %xmm1, 2 * SIZE(Y)
@@ -2171,11 +2091,11 @@
vmovups 1 * SIZE(BUFFER), %xmm5
vmovups 3 * SIZE(BUFFER), %xmm6

shufpd $0x01, %xmm5, %xmm4
shufpd $0x01, %xmm6, %xmm5
vshufpd $0x01, %xmm5, %xmm4, %xmm4
vshufpd $0x01, %xmm6, %xmm5, %xmm5

addpd %xmm4, %xmm0
addpd %xmm5, %xmm1
vaddpd %xmm4, %xmm0, %xmm0
vaddpd %xmm5, %xmm1, %xmm1

vmovups %xmm0, 0 * SIZE(Y)
vmovups %xmm1, 2 * SIZE(Y)
@@ -2194,9 +2114,9 @@

vmovups 1 * SIZE(BUFFER), %xmm5

shufpd $0x01, %xmm5, %xmm4
vshufpd $0x01, %xmm5, %xmm4, %xmm4

addpd %xmm4, %xmm0
vaddpd %xmm4, %xmm0, %xmm0

vmovups %xmm0, (Y)

@@ -2214,7 +2134,7 @@

vshufpd $0x01, %xmm4 ,%xmm4, %xmm4

addsd %xmm4, %xmm0
vaddsd %xmm4, %xmm0, %xmm0

vmovsd %xmm0, (Y)
ALIGN_3
@@ -2227,7 +2147,7 @@
je .L960

vmovsd (Y), %xmm0
addsd (BUFFER), %xmm0
vaddsd (BUFFER), %xmm0, %xmm0
vmovsd %xmm0, (Y)

addq INCY, Y
@@ -2248,57 +2168,57 @@
.L962:
vmovsd (Y), %xmm0
addq INCY, Y
movhpd (Y), %xmm0
vmovhpd (Y), %xmm0, %xmm0
addq INCY, Y

vmovups 0 * SIZE(BUFFER), %xmm4

vmovsd (Y), %xmm1
addq INCY, Y
movhpd (Y), %xmm1
vmovhpd (Y), %xmm1, %xmm1
addq INCY, Y

vmovups 2 * SIZE(BUFFER), %xmm5

vmovsd (Y), %xmm2
addq INCY, Y
movhpd (Y), %xmm2
vmovhpd (Y), %xmm2, %xmm2
addq INCY, Y

vmovups 4 * SIZE(BUFFER), %xmm6

addpd %xmm4, %xmm0
vaddpd %xmm4, %xmm0, %xmm0

vmovsd (Y), %xmm3
addq INCY, Y
movhpd (Y), %xmm3
vmovhpd (Y), %xmm3, %xmm3
addq INCY, Y

vmovups 6 * SIZE(BUFFER), %xmm7

addpd %xmm5, %xmm1
vaddpd %xmm5, %xmm1, %xmm1

vmovsd %xmm0, (Y1)
addq INCY, Y1
movhpd %xmm0, (Y1)
vmovhpd %xmm0, (Y1)
addq INCY, Y1

addpd %xmm6, %xmm2
vaddpd %xmm6, %xmm2, %xmm2

vmovsd %xmm1, (Y1)
addq INCY, Y1
movhpd %xmm1, (Y1)
vmovhpd %xmm1, (Y1)
addq INCY, Y1

addpd %xmm7, %xmm3
vaddpd %xmm7, %xmm3, %xmm3

vmovsd %xmm2, (Y1)
addq INCY, Y1
movhpd %xmm2, (Y1)
vmovhpd %xmm2, (Y1)
addq INCY, Y1
vmovsd %xmm3, (Y1)
addq INCY, Y1
movhpd %xmm3, (Y1)
vmovhpd %xmm3, (Y1)
addq INCY, Y1

addq $8 * SIZE, BUFFER
@@ -2315,28 +2235,28 @@

vmovsd (Y), %xmm0
addq INCY, Y
movhpd (Y), %xmm0
vmovhpd (Y), %xmm0, %xmm0
addq INCY, Y

vmovups 0 * SIZE(BUFFER), %xmm4

vmovsd (Y), %xmm1
addq INCY, Y
movhpd (Y), %xmm1
vmovhpd (Y), %xmm1, %xmm1
addq INCY, Y

vmovups 2 * SIZE(BUFFER), %xmm5

addpd %xmm4, %xmm0
addpd %xmm5, %xmm1
vaddpd %xmm4, %xmm0, %xmm0
vaddpd %xmm5, %xmm1, %xmm1

vmovsd %xmm0, (Y1)
addq INCY, Y1
movhpd %xmm0, (Y1)
vmovhpd %xmm0, (Y1)
addq INCY, Y1
vmovsd %xmm1, (Y1)
addq INCY, Y1
movhpd %xmm1, (Y1)
vmovhpd %xmm1, (Y1)
addq INCY, Y1

addq $4 * SIZE, BUFFER
@@ -2348,16 +2268,16 @@

vmovsd (Y), %xmm0
addq INCY, Y
movhpd (Y), %xmm0
vmovhpd (Y),%xmm0, %xmm0
addq INCY, Y

vmovups 0 * SIZE(BUFFER), %xmm4

addpd %xmm4, %xmm0
vaddpd %xmm4, %xmm0, %xmm0

vmovsd %xmm0, (Y1)
addq INCY, Y1
movhpd %xmm0, (Y1)
vmovhpd %xmm0, (Y1)
addq INCY, Y1

addq $2 * SIZE, BUFFER
@@ -2371,7 +2291,7 @@

vmovsd 0 * SIZE(BUFFER), %xmm4

addsd %xmm4, %xmm0
vaddsd %xmm4, %xmm0, %xmm0

vmovsd %xmm0, (Y1)
ALIGN_3


Loading…
Cancel
Save