| @@ -103,7 +103,7 @@ | |||||
| vmovups -10*SIZE(AO,%rax,8), %xmm6 | vmovups -10*SIZE(AO,%rax,8), %xmm6 | ||||
| vfmaddpd %xmm14, %xmm6 , %xmm1 , %xmm14 | vfmaddpd %xmm14, %xmm6 , %xmm1 , %xmm14 | ||||
| vfmaddpd %xmm15, %xmm6 , %xmm2 , %xmm15 | vfmaddpd %xmm15, %xmm6 , %xmm2 , %xmm15 | ||||
| addq $SIZE, %rax | |||||
| addq $ SIZE, %rax | |||||
| .endm | .endm | ||||
| .macro SOLVE_8x2 | .macro SOLVE_8x2 | ||||
| @@ -265,7 +265,7 @@ | |||||
| vmovups -14*SIZE(AO,%rax,4), %xmm0 | vmovups -14*SIZE(AO,%rax,4), %xmm0 | ||||
| vfmaddpd %xmm10, %xmm0 , %xmm1 , %xmm10 | vfmaddpd %xmm10, %xmm0 , %xmm1 , %xmm10 | ||||
| vfmaddpd %xmm11, %xmm0 , %xmm2 , %xmm11 | vfmaddpd %xmm11, %xmm0 , %xmm2 , %xmm11 | ||||
| addq $SIZE, %rax | |||||
| addq $ SIZE, %rax | |||||
| .endm | .endm | ||||
| @@ -338,7 +338,7 @@ | |||||
| vmovups -16*SIZE(AO,%rax,2), %xmm0 | vmovups -16*SIZE(AO,%rax,2), %xmm0 | ||||
| vfmaddpd %xmm8 , %xmm0 , %xmm1 , %xmm8 | vfmaddpd %xmm8 , %xmm0 , %xmm1 , %xmm8 | ||||
| vfmaddpd %xmm9 , %xmm0 , %xmm2 , %xmm9 | vfmaddpd %xmm9 , %xmm0 , %xmm2 , %xmm9 | ||||
| addq $SIZE, %rax | |||||
| addq $ SIZE, %rax | |||||
| .endm | .endm | ||||
| @@ -378,7 +378,7 @@ | |||||
| vmovups -16*SIZE(BO,%rax,2), %xmm1 | vmovups -16*SIZE(BO,%rax,2), %xmm1 | ||||
| vmovddup -16*SIZE(AO,%rax,1), %xmm0 | vmovddup -16*SIZE(AO,%rax,1), %xmm0 | ||||
| vfmaddpd %xmm8 , %xmm0 , %xmm1 , %xmm8 | vfmaddpd %xmm8 , %xmm0 , %xmm1 , %xmm8 | ||||
| addq $SIZE, %rax | |||||
| addq $ SIZE, %rax | |||||
| .endm | .endm | ||||
| .macro SOLVE_1x2 | .macro SOLVE_1x2 | ||||
| @@ -411,7 +411,7 @@ | |||||
| vfmaddpd %xmm10, %xmm0 , %xmm1 , %xmm10 | vfmaddpd %xmm10, %xmm0 , %xmm1 , %xmm10 | ||||
| vmovups -10*SIZE(AO,%rax,8), %xmm0 | vmovups -10*SIZE(AO,%rax,8), %xmm0 | ||||
| vfmaddpd %xmm11, %xmm0 , %xmm1 , %xmm11 | vfmaddpd %xmm11, %xmm0 , %xmm1 , %xmm11 | ||||
| addq $SIZE, %rax | |||||
| addq $ SIZE, %rax | |||||
| .endm | .endm | ||||
| .macro SOLVE_8x1 | .macro SOLVE_8x1 | ||||
| @@ -510,7 +510,7 @@ | |||||
| vfmaddpd %xmm8 , %xmm0 , %xmm1 , %xmm8 | vfmaddpd %xmm8 , %xmm0 , %xmm1 , %xmm8 | ||||
| vmovups -14*SIZE(AO,%rax,4), %xmm0 | vmovups -14*SIZE(AO,%rax,4), %xmm0 | ||||
| vfmaddpd %xmm9 , %xmm0 , %xmm1 , %xmm9 | vfmaddpd %xmm9 , %xmm0 , %xmm1 , %xmm9 | ||||
| addq $SIZE, %rax | |||||
| addq $ SIZE, %rax | |||||
| .endm | .endm | ||||
| @@ -560,7 +560,7 @@ | |||||
| vmovddup -16*SIZE(BO,%rax,1), %xmm1 | vmovddup -16*SIZE(BO,%rax,1), %xmm1 | ||||
| vmovups -16*SIZE(AO,%rax,2), %xmm0 | vmovups -16*SIZE(AO,%rax,2), %xmm0 | ||||
| vfmaddpd %xmm8 , %xmm0 , %xmm1 , %xmm8 | vfmaddpd %xmm8 , %xmm0 , %xmm1 , %xmm8 | ||||
| addq $SIZE, %rax | |||||
| addq $ SIZE, %rax | |||||
| .endm | .endm | ||||
| @@ -592,7 +592,7 @@ | |||||
| vmovsd -16*SIZE(BO,%rax,1), %xmm1 | vmovsd -16*SIZE(BO,%rax,1), %xmm1 | ||||
| vmovsd -16*SIZE(AO,%rax,1), %xmm0 | vmovsd -16*SIZE(AO,%rax,1), %xmm0 | ||||
| vfmaddsd %xmm8 , %xmm0 , %xmm1 , %xmm8 | vfmaddsd %xmm8 , %xmm0 , %xmm1 , %xmm8 | ||||
| addq $SIZE, %rax | |||||
| addq $ SIZE, %rax | |||||
| .endm | .endm | ||||
| .macro SOLVE_1x1 | .macro SOLVE_1x1 | ||||
| @@ -103,7 +103,7 @@ | |||||
| vmovups -10*SIZE(AO,%rax,8), %xmm6 | vmovups -10*SIZE(AO,%rax,8), %xmm6 | ||||
| vfmaddpd %xmm14, %xmm6 , %xmm1 , %xmm14 | vfmaddpd %xmm14, %xmm6 , %xmm1 , %xmm14 | ||||
| vfmaddpd %xmm15, %xmm6 , %xmm2 , %xmm15 | vfmaddpd %xmm15, %xmm6 , %xmm2 , %xmm15 | ||||
| addq $SIZE, %rax | |||||
| addq $ SIZE, %rax | |||||
| .endm | .endm | ||||
| .macro SOLVE_8x2 | .macro SOLVE_8x2 | ||||
| @@ -177,7 +177,7 @@ | |||||
| vmovups -14*SIZE(AO,%rax,4), %xmm0 | vmovups -14*SIZE(AO,%rax,4), %xmm0 | ||||
| vfmaddpd %xmm10, %xmm0 , %xmm1 , %xmm10 | vfmaddpd %xmm10, %xmm0 , %xmm1 , %xmm10 | ||||
| vfmaddpd %xmm11, %xmm0 , %xmm2 , %xmm11 | vfmaddpd %xmm11, %xmm0 , %xmm2 , %xmm11 | ||||
| addq $SIZE, %rax | |||||
| addq $ SIZE, %rax | |||||
| .endm | .endm | ||||
| @@ -226,7 +226,7 @@ | |||||
| vmovups -16*SIZE(AO,%rax,2), %xmm0 | vmovups -16*SIZE(AO,%rax,2), %xmm0 | ||||
| vfmaddpd %xmm8 , %xmm0 , %xmm1 , %xmm8 | vfmaddpd %xmm8 , %xmm0 , %xmm1 , %xmm8 | ||||
| vfmaddpd %xmm9 , %xmm0 , %xmm2 , %xmm9 | vfmaddpd %xmm9 , %xmm0 , %xmm2 , %xmm9 | ||||
| addq $SIZE, %rax | |||||
| addq $ SIZE, %rax | |||||
| .endm | .endm | ||||
| @@ -262,7 +262,7 @@ | |||||
| vmovups -16*SIZE(BO,%rax,2), %xmm1 | vmovups -16*SIZE(BO,%rax,2), %xmm1 | ||||
| vmovddup -16*SIZE(AO,%rax,1), %xmm0 | vmovddup -16*SIZE(AO,%rax,1), %xmm0 | ||||
| vfmaddpd %xmm8 , %xmm0 , %xmm1 , %xmm8 | vfmaddpd %xmm8 , %xmm0 , %xmm1 , %xmm8 | ||||
| addq $SIZE, %rax | |||||
| addq $ SIZE, %rax | |||||
| .endm | .endm | ||||
| .macro SOLVE_1x2 | .macro SOLVE_1x2 | ||||
| @@ -306,7 +306,7 @@ | |||||
| vfmaddpd %xmm10, %xmm0 , %xmm1 , %xmm10 | vfmaddpd %xmm10, %xmm0 , %xmm1 , %xmm10 | ||||
| vmovups -10*SIZE(AO,%rax,8), %xmm0 | vmovups -10*SIZE(AO,%rax,8), %xmm0 | ||||
| vfmaddpd %xmm11, %xmm0 , %xmm1 , %xmm11 | vfmaddpd %xmm11, %xmm0 , %xmm1 , %xmm11 | ||||
| addq $SIZE, %rax | |||||
| addq $ SIZE, %rax | |||||
| .endm | .endm | ||||
| .macro SOLVE_8x1 | .macro SOLVE_8x1 | ||||
| @@ -347,7 +347,7 @@ | |||||
| vfmaddpd %xmm8 , %xmm0 , %xmm1 , %xmm8 | vfmaddpd %xmm8 , %xmm0 , %xmm1 , %xmm8 | ||||
| vmovups -14*SIZE(AO,%rax,4), %xmm0 | vmovups -14*SIZE(AO,%rax,4), %xmm0 | ||||
| vfmaddpd %xmm9 , %xmm0 , %xmm1 , %xmm9 | vfmaddpd %xmm9 , %xmm0 , %xmm1 , %xmm9 | ||||
| addq $SIZE, %rax | |||||
| addq $ SIZE, %rax | |||||
| .endm | .endm | ||||
| @@ -377,7 +377,7 @@ | |||||
| vmovddup -16*SIZE(BO,%rax,1), %xmm1 | vmovddup -16*SIZE(BO,%rax,1), %xmm1 | ||||
| vmovups -16*SIZE(AO,%rax,2), %xmm0 | vmovups -16*SIZE(AO,%rax,2), %xmm0 | ||||
| vfmaddpd %xmm8 , %xmm0 , %xmm1 , %xmm8 | vfmaddpd %xmm8 , %xmm0 , %xmm1 , %xmm8 | ||||
| addq $SIZE, %rax | |||||
| addq $ SIZE, %rax | |||||
| .endm | .endm | ||||
| @@ -402,7 +402,7 @@ | |||||
| vmovsd -16*SIZE(BO,%rax,1), %xmm1 | vmovsd -16*SIZE(BO,%rax,1), %xmm1 | ||||
| vmovsd -16*SIZE(AO,%rax,1), %xmm0 | vmovsd -16*SIZE(AO,%rax,1), %xmm0 | ||||
| vfmaddsd %xmm8 , %xmm0 , %xmm1 , %xmm8 | vfmaddsd %xmm8 , %xmm0 , %xmm1 , %xmm8 | ||||
| addq $SIZE, %rax | |||||
| addq $ SIZE, %rax | |||||
| .endm | .endm | ||||
| .macro SOLVE_1x1 | .macro SOLVE_1x1 | ||||