📄 zdot_sse2.s
字号:
addpd %xmm15, %xmm3 mulpd %xmm5, %xmm11 MOVDDUP(12 * SIZE, X, %xmm12) MOVDDUP(13 * SIZE, X, %xmm13) MOVDDUP(14 * SIZE, X, %xmm14) MOVDDUP(15 * SIZE, X, %xmm15) addpd %xmm8, %xmm0 mulpd %xmm6, %xmm12 addpd %xmm9, %xmm1 mulpd %xmm6, %xmm13 addpd %xmm10, %xmm2 mulpd %xmm7, %xmm14 addpd %xmm11, %xmm3 mulpd %xmm7, %xmm15 addpd %xmm12, %xmm0 mulpd %xmm4, %xmm8 addpd %xmm13, %xmm1 mulpd %xmm4, %xmm9 addpd %xmm14, %xmm2 mulpd %xmm5, %xmm10 addpd %xmm15, %xmm3 mulpd %xmm5, %xmm11 addq $16 * SIZE, Y addq $16 * SIZE, X ALIGN_3.L35: testq $7, N je .L49 movq N, %rax andq $4, %rax jle .L36 movapd 0 * SIZE(Y), %xmm4 movapd 2 * SIZE(Y), %xmm5 movapd 4 * SIZE(Y), %xmm6 movapd 6 * SIZE(Y), %xmm7 MOVDDUP( 0 * SIZE, X, %xmm8) MOVDDUP( 1 * SIZE, X, %xmm9) MOVDDUP( 2 * SIZE, X, %xmm10) MOVDDUP( 3 * SIZE, X, %xmm11) mulpd %xmm4, %xmm8 mulpd %xmm4, %xmm9 mulpd %xmm5, %xmm10 mulpd %xmm5, %xmm11 MOVDDUP( 4 * SIZE, X, %xmm12) MOVDDUP( 5 * SIZE, X, %xmm13) MOVDDUP( 6 * SIZE, X, %xmm14) MOVDDUP( 7 * SIZE, X, %xmm15) addpd %xmm8, %xmm0 mulpd %xmm6, %xmm12 addpd %xmm9, %xmm1 mulpd %xmm6, %xmm13 addpd %xmm10, %xmm2 mulpd %xmm7, %xmm14 addpd %xmm11, %xmm3 mulpd %xmm7, %xmm15 addpd %xmm12, %xmm0 addpd %xmm13, %xmm1 addpd %xmm14, %xmm2 addpd %xmm15, %xmm3 addq $8 * SIZE, Y addq $8 * SIZE, X ALIGN_3.L36: movq N, %rax andq $2, %rax jle .L37 movapd 0 * SIZE(Y), %xmm4 movapd 2 * SIZE(Y), %xmm5 MOVDDUP( 0 * SIZE, X, %xmm8) MOVDDUP( 1 * SIZE, X, %xmm9) MOVDDUP( 2 * SIZE, X, %xmm10) MOVDDUP( 3 * SIZE, X, %xmm11) mulpd %xmm4, %xmm8 mulpd %xmm4, %xmm9 mulpd %xmm5, %xmm10 mulpd %xmm5, %xmm11 addpd %xmm8, %xmm0 addpd %xmm9, %xmm1 addpd %xmm10, %xmm2 addpd %xmm11, %xmm3 addq $4 * SIZE, Y addq $4 * SIZE, X ALIGN_3.L37: movq N, %rax andq $1, %rax jle .L49 movapd 0 * SIZE(Y), %xmm4 MOVDDUP( 0 * SIZE, X, %xmm8) MOVDDUP( 1 * SIZE, X, %xmm9) mulpd %xmm4, %xmm8 mulpd %xmm4, %xmm9 addpd %xmm8, %xmm0 addpd %xmm9, %xmm1 jmp .L49 ALIGN_3.L40:#ifdef F_INTERFACE testq INCX, INCX jge .L41 movq N, %rax decq %rax imulq INCX, %rax subq %rax, X ALIGN_3.L41: testq INCY, INCY jge .L42 movq N, %rax decq %rax imulq INCY, %rax subq %rax, Y ALIGN_3.L42:#endif movq N, %rax sarq $3, %rax jle .L45 movapd (Y), %xmm4 addq INCY, Y movapd (Y), %xmm5 addq INCY, Y movapd (Y), %xmm6 addq INCY, Y movapd (Y), %xmm7 addq INCY, Y MOVDDUP( 0 * SIZE, X, %xmm8) MOVDDUP( 1 * SIZE, X, %xmm9) addq INCX, X MOVDDUP( 0 * SIZE, X, %xmm10) MOVDDUP( 1 * SIZE, X, %xmm11) addq INCX, X mulpd %xmm4, %xmm8 mulpd %xmm4, %xmm9 mulpd %xmm5, %xmm10 mulpd %xmm5, %xmm11 MOVDDUP( 0 * SIZE, X, %xmm12) MOVDDUP( 1 * SIZE, X, %xmm13) addq INCX, X MOVDDUP( 0 * SIZE, X, %xmm14) MOVDDUP( 1 * SIZE, X, %xmm15) addq INCX, X decq %rax jle .L44 ALIGN_3.L43: addpd %xmm8, %xmm0 mulpd %xmm6, %xmm12 addpd %xmm9, %xmm1 mulpd %xmm6, %xmm13 addpd %xmm10, %xmm2 mulpd %xmm7, %xmm14 addpd %xmm11, %xmm3 mulpd %xmm7, %xmm15 movapd (Y), %xmm4 addq INCY, Y movapd (Y), %xmm5 addq INCY, Y movapd (Y), %xmm6 addq INCY, Y movapd (Y), %xmm7 addq INCY, Y MOVDDUP( 0 * SIZE, X, %xmm8) MOVDDUP( 1 * SIZE, X, %xmm9) addq INCX, X MOVDDUP( 0 * SIZE, X, %xmm10) MOVDDUP( 1 * SIZE, X, %xmm11) addq INCX, X addpd %xmm12, %xmm0 mulpd %xmm4, %xmm8 addpd %xmm13, %xmm1 mulpd %xmm4, %xmm9 addpd %xmm14, %xmm2 mulpd %xmm5, %xmm10 addpd %xmm15, %xmm3 mulpd %xmm5, %xmm11 MOVDDUP( 0 * SIZE, X, %xmm12) MOVDDUP( 1 * SIZE, X, %xmm13) addq INCX, X MOVDDUP( 0 * SIZE, X, %xmm14) MOVDDUP( 1 * SIZE, X, %xmm15) addq INCX, X addpd %xmm8, %xmm0 mulpd %xmm6, %xmm12 addpd %xmm9, %xmm1 mulpd %xmm6, %xmm13 addpd %xmm10, %xmm2 mulpd %xmm7, %xmm14 addpd %xmm11, %xmm3 mulpd %xmm7, %xmm15 movapd (Y), %xmm4 addq INCY, Y movapd (Y), %xmm5 addq INCY, Y movapd (Y), %xmm6 addq INCY, Y movapd (Y), %xmm7 addq INCY, Y MOVDDUP( 0 * SIZE, X, %xmm8) MOVDDUP( 1 * SIZE, X, %xmm9) addq INCX, X MOVDDUP( 0 * SIZE, X, %xmm10) MOVDDUP( 1 * SIZE, X, %xmm11) addq INCX, X addpd %xmm12, %xmm0 mulpd %xmm4, %xmm8 addpd %xmm13, %xmm1 mulpd %xmm4, %xmm9 addpd %xmm14, %xmm2 mulpd %xmm5, %xmm10 addpd %xmm15, %xmm3 mulpd %xmm5, %xmm11 MOVDDUP( 0 * SIZE, X, %xmm12) MOVDDUP( 1 * SIZE, X, %xmm13) addq INCX, X MOVDDUP( 0 * SIZE, X, %xmm14) MOVDDUP( 1 * SIZE, X, %xmm15) addq INCX, X decq %rax jg .L43 ALIGN_3.L44: addpd %xmm8, %xmm0 mulpd %xmm6, %xmm12 addpd %xmm9, %xmm1 mulpd %xmm6, %xmm13 addpd %xmm10, %xmm2 mulpd %xmm7, %xmm14 addpd %xmm11, %xmm3 mulpd %xmm7, %xmm15 movapd (Y), %xmm4 addq INCY, Y movapd (Y), %xmm5 addq INCY, Y movapd (Y), %xmm6 addq INCY, Y movapd (Y), %xmm7 addq INCY, Y MOVDDUP( 0 * SIZE, X, %xmm8) MOVDDUP( 1 * SIZE, X, %xmm9) addq INCX, X MOVDDUP( 0 * SIZE, X, %xmm10) MOVDDUP( 1 * SIZE, X, %xmm11) addq INCX, X addpd %xmm12, %xmm0 mulpd %xmm4, %xmm8 addpd %xmm13, %xmm1 mulpd %xmm4, %xmm9 addpd %xmm14, %xmm2 mulpd %xmm5, %xmm10 addpd %xmm15, %xmm3 mulpd %xmm5, %xmm11 MOVDDUP( 0 * SIZE, X, %xmm12) MOVDDUP( 1 * SIZE, X, %xmm13) addq INCX, X MOVDDUP( 0 * SIZE, X, %xmm14) MOVDDUP( 1 * SIZE, X, %xmm15) addq INCX, X addpd %xmm8, %xmm0 mulpd %xmm6, %xmm12 addpd %xmm9, %xmm1 mulpd %xmm6, %xmm13 addpd %xmm10, %xmm2 mulpd %xmm7, %xmm14 addpd %xmm11, %xmm3 mulpd %xmm7, %xmm15 addpd %xmm12, %xmm0 mulpd %xmm4, %xmm8 addpd %xmm13, %xmm1 mulpd %xmm4, %xmm9 addpd %xmm14, %xmm2 mulpd %xmm5, %xmm10 addpd %xmm15, %xmm3 mulpd %xmm5, %xmm11 ALIGN_3.L45: testq $7, N je .L49 movq N, %rax andq $4, %rax jle .L46 movapd (Y), %xmm4 addq INCY, Y movapd (Y), %xmm5 addq INCY, Y movapd (Y), %xmm6 addq INCY, Y movapd (Y), %xmm7 addq INCY, Y MOVDDUP( 0 * SIZE, X, %xmm8) MOVDDUP( 1 * SIZE, X, %xmm9) addq INCX, X MOVDDUP( 0 * SIZE, X, %xmm10) MOVDDUP( 1 * SIZE, X, %xmm11) addq INCX, X mulpd %xmm4, %xmm8 mulpd %xmm4, %xmm9 mulpd %xmm5, %xmm10 mulpd %xmm5, %xmm11 MOVDDUP( 0 * SIZE, X, %xmm12) MOVDDUP( 1 * SIZE, X, %xmm13) addq INCX, X MOVDDUP( 0 * SIZE, X, %xmm14) MOVDDUP( 1 * SIZE, X, %xmm15) addq INCX, X addpd %xmm8, %xmm0 mulpd %xmm6, %xmm12 addpd %xmm9, %xmm1 mulpd %xmm6, %xmm13 addpd %xmm10, %xmm2 mulpd %xmm7, %xmm14 addpd %xmm11, %xmm3 mulpd %xmm7, %xmm15 addpd %xmm12, %xmm0 addpd %xmm13, %xmm1 addpd %xmm14, %xmm2 addpd %xmm15, %xmm3 ALIGN_3.L46: movq N, %rax andq $2, %rax jle .L47 movapd (Y), %xmm4 addq INCY, Y movapd (Y), %xmm5 addq INCY, Y MOVDDUP( 0 * SIZE, X, %xmm8) MOVDDUP( 1 * SIZE, X, %xmm9) addq INCX, X MOVDDUP( 0 * SIZE, X, %xmm10) MOVDDUP( 1 * SIZE, X, %xmm11) addq INCX, X mulpd %xmm4, %xmm8 mulpd %xmm4, %xmm9 mulpd %xmm5, %xmm10 mulpd %xmm5, %xmm11 addpd %xmm8, %xmm0 addpd %xmm9, %xmm1 addpd %xmm10, %xmm2 addpd %xmm11, %xmm3 ALIGN_3.L47: movq N, %rax andq $1, %rax jle .L49 movapd (Y), %xmm4 MOVDDUP( 0 * SIZE, X, %xmm8) MOVDDUP( 1 * SIZE, X, %xmm9) mulpd %xmm4, %xmm8 mulpd %xmm4, %xmm9 addpd %xmm8, %xmm0 addpd %xmm9, %xmm1 ALIGN_3.L49: addpd %xmm0, %xmm2 addpd %xmm1, %xmm3 movapd %xmm2, %xmm0 unpckhpd %xmm2, %xmm2 movapd %xmm3, %xmm1 unpckhpd %xmm3, %xmm3#ifndef CONJ subsd %xmm3, %xmm0 addsd %xmm2, %xmm1#else addsd %xmm3, %xmm0 subsd %xmm1, %xmm2 movapd %xmm2, %xmm1#endif#if defined(F_INTERFACE) && defined(F_INTERFACE_F2C) movsd %xmm0, 0 * SIZE(RESULT) movsd %xmm1, 1 * SIZE(RESULT)#endif RESTOREREGISTERS ret ALIGN_3.L50:#ifdef F_INTERFACE testq INCX, INCX # if (incx < 0) jge .L61 movq N, %rax # n decq %rax # n - 1 imulq INCX, %rax # (n - 1) * incx subq %rax, X ALIGN_3.L61: testq INCY, INCY # if (incy < 0) jge .L62 movq N, %rax decq %rax # (n - 1) imulq INCY, %rax # (n - 1) * incy subq %rax, Y ALIGN_3.L62:#endif movq N, %rax sarq $3, %rax jle .L65 movsd 0 * SIZE(X), %xmm4 movhpd 1 * SIZE(X), %xmm4 addq INCX, X movsd 0 * SIZE(X), %xmm5 movhpd 1 * SIZE(X), %xmm5 addq INCX, X movsd 0 * SIZE(X), %xmm6 movhpd 1 * SIZE(X), %xmm6 addq INCX, X movsd 0 * SIZE(X), %xmm7 movhpd 1 * SIZE(X), %xmm7 addq INCX, X MOVDDUP( 0 * SIZE, Y, %xmm8) MOVDDUP( 1 * SIZE, Y, %xmm9) addq INCY, Y MOVDDUP( 0 * SIZE, Y, %xmm10) MOVDDUP( 1 * SIZE, Y, %xmm11) addq INCY, Y mulpd %xmm4, %xmm8 mulpd %xmm4, %xmm9 mulpd %xmm5, %xmm10 mulpd %xmm5, %xmm11 MOVDDUP( 0 * SIZE, Y, %xmm12) MOVDDUP( 1 * SIZE, Y, %xmm13) addq INCY, Y MOVDDUP( 0 * SIZE, Y, %xmm14) MOVDDUP( 1 * SIZE, Y, %xmm15) addq INCY, Y decq %rax jle .L64 ALIGN_3.L63: addpd %xmm8, %xmm0 mulpd %xmm6, %xmm12 addpd %xmm9, %xmm1 mulpd %xmm6, %xmm13 addpd %xmm10, %xmm2 mulpd %xmm7, %xmm14 addpd %xmm11, %xmm3 mulpd %xmm7, %xmm15 movsd 0 * SIZE(X), %xmm4 movhpd 1 * SIZE(X), %xmm4 addq INCX, X movsd 0 * SIZE(X), %xmm5 movhpd 1 * SIZE(X), %xmm5 addq INCX, X movsd 0 * SIZE(X), %xmm6 movhpd 1 * SIZE(X), %xmm6 addq INCX, X movsd 0 * SIZE(X), %xmm7 movhpd 1 * SIZE(X), %xmm7 addq INCX, X MOVDDUP( 0 * SIZE, Y, %xmm8) MOVDDUP( 1 * SIZE, Y, %xmm9) addq INCY, Y MOVDDUP( 0 * SIZE, Y, %xmm10) MOVDDUP( 1 * SIZE, Y, %xmm11) addq INCY, Y addpd %xmm12, %xmm0 mulpd %xmm4, %xmm8 addpd %xmm13, %xmm1 mulpd %xmm4, %xmm9 addpd %xmm14, %xmm2 mulpd %xmm5, %xmm10 addpd %xmm15, %xmm3 mulpd %xmm5, %xmm11 MOVDDUP( 0 * SIZE, Y, %xmm12) MOVDDUP( 1 * SIZE, Y, %xmm13) addq INCY, Y MOVDDUP( 0 * SIZE, Y, %xmm14) MOVDDUP( 1 * SIZE, Y, %xmm15) addq INCY, Y addpd %xmm8, %xmm0 mulpd %xmm6, %xmm12 addpd %xmm9, %xmm1 mulpd %xmm6, %xmm13 addpd %xmm10, %xmm2 mulpd %xmm7, %xmm14 addpd %xmm11, %xmm3 mulpd %xmm7, %xmm15 movsd 0 * SIZE(X), %xmm4 movhpd 1 * SIZE(X), %xmm4 addq INCX, X movsd 0 * SIZE(X), %xmm5 movhpd 1 * SIZE(X), %xmm5 addq INCX, X movsd 0 * SIZE(X), %xmm6 movhpd 1 * SIZE(X), %xmm6 addq INCX, X movsd 0 * SIZE(X), %xmm7 movhpd 1 * SIZE(X), %xmm7 addq INCX, X MOVDDUP( 0 * SIZE, Y, %xmm8) MOVDDUP( 1 * SIZE, Y, %xmm9) addq INCY, Y MOVDDUP( 0 * SIZE, Y, %xmm10) MOVDDUP( 1 * SIZE, Y, %xmm11) addq INCY, Y addpd %xmm12, %xmm0 mulpd %xmm4, %xmm8 addpd %xmm13, %xmm1 mulpd %xmm4, %xmm9 addpd %xmm14, %xmm2 mulpd %xmm5, %xmm10 addpd %xmm15, %xmm3 mulpd %xmm5, %xmm11 MOVDDUP( 0 * SIZE, Y, %xmm12) MOVDDUP( 1 * SIZE, Y, %xmm13) addq INCY, Y MOVDDUP( 0 * SIZE, Y, %xmm14) MOVDDUP( 1 * SIZE, Y, %xmm15) addq INCY, Y decq %rax jg .L63 ALIGN_3.L64: addpd %xmm8, %xmm0 mulpd %xmm6, %xmm12 addpd %xmm9, %xmm1 mulpd %xmm6, %xmm13 addpd %xmm10, %xmm2 mulpd %xmm7, %xmm14 addpd %xmm11, %xmm3 mulpd %xmm7, %xmm15 movsd 0 * SIZE(X), %xmm4 movhpd 1 * SIZE(X), %xmm4 addq INCX, X movsd 0 * SIZE(X), %xmm5 movhpd 1 * SIZE(X), %xmm5 addq INCX, X movsd 0 * SIZE(X), %xmm6 movhpd 1 * SIZE(X), %xmm6 addq INCX, X movsd 0 * SIZE(X), %xmm7 movhpd 1 * SIZE(X), %xmm7 addq INCX, X MOVDDUP( 0 * SIZE, Y, %xmm8) MOVDDUP( 1 * SIZE, Y, %xmm9) addq INCY, Y MOVDDUP( 0 * SIZE, Y, %xmm10) MOVDDUP( 1 * SIZE, Y, %xmm11) addq INCY, Y addpd %xmm12, %xmm0 mulpd %xmm4, %xmm8 addpd %xmm13, %xmm1 mulpd %xmm4, %xmm9 addpd %xmm14, %xmm2 mulpd %xmm5, %xmm10 addpd %xmm15, %xmm3 mulpd %xmm5, %xmm11 MOVDDUP( 0 * SIZE, Y, %xmm12) MOVDDUP( 1 * SIZE, Y, %xmm13) addq INCY, Y MOVDDUP( 0 * SIZE, Y, %xmm14) MOVDDUP( 1 * SIZE, Y, %xmm15) addq INCY, Y addpd %xmm8, %xmm0 mulpd %xmm6, %xmm12 addpd %xmm9, %xmm1 mulpd %xmm6, %xmm13 addpd %xmm10, %xmm2 mulpd %xmm7, %xmm14 addpd %xmm11, %xmm3 mulpd %xmm7, %xmm15 addpd %xmm12, %xmm0 mulpd %xmm4, %xmm8 addpd %xmm13, %xmm1 mulpd %xmm4, %xmm9 addpd %xmm14, %xmm2 mulpd %xmm5, %xmm10 addpd %xmm15, %xmm3 mulpd %xmm5, %xmm11 ALIGN_3.L65: testq $7, N je .L999 movq N, %rax andq $4, %rax jle .L66 movsd 0 * SIZE(X), %xmm4 movhpd 1 * SIZE(X), %xmm4 addq INCX, X movsd 0 * SIZE(X), %xmm5 movhpd 1 * SIZE(X), %xmm5 addq INCX, X movsd 0 * SIZE(X), %xmm6 movhpd 1 * SIZE(X), %xmm6 addq INCX, X movsd 0 * SIZE(X), %xmm7 movhpd 1 * SIZE(X), %xmm7 addq INCX, X MOVDDUP( 0 * SIZE, Y, %xmm8) MOVDDUP( 1 * SIZE, Y, %xmm9) addq INCY, Y MOVDDUP( 0 * SIZE, Y, %xmm10) MOVDDUP( 1 * SIZE, Y, %xmm11) addq INCY, Y mulpd %xmm4, %xmm8 mulpd %xmm4, %xmm9 mulpd %xmm5, %xmm10 mulpd %xmm5, %xmm11 MOVDDUP( 0 * SIZE, Y, %xmm12) MOVDDUP( 1 * SIZE, Y, %xmm13) addq INCY, Y MOVDDUP( 0 * SIZE, Y, %xmm14) MOVDDUP( 1 * SIZE, Y, %xmm15) addq INCY, Y addpd %xmm8, %xmm0 mulpd %xmm6, %xmm12 addpd %xmm9, %xmm1 mulpd %xmm6, %xmm13 addpd %xmm10, %xmm2 mulpd %xmm7, %xmm14 addpd %xmm11, %xmm3 mulpd %xmm7, %xmm15 addpd %xmm12, %xmm0 addpd %xmm13, %xmm1 addpd %xmm14, %xmm2 addpd %xmm15, %xmm3 ALIGN_3.L66: movq N, %rax andq $2, %rax jle .L67 movsd 0 * SIZE(X), %xmm4 movhpd 1 * SIZE(X), %xmm4 addq INCX, X movsd 0 * SIZE(X), %xmm5 movhpd 1 * SIZE(X), %xmm5 addq INCX, X MOVDDUP( 0 * SIZE, Y, %xmm8) MOVDDUP( 1 * SIZE, Y, %xmm9) addq INCY, Y MOVDDUP( 0 * SIZE, Y, %xmm10) MOVDDUP( 1 * SIZE, Y, %xmm11) addq INCY, Y mulpd %xmm4, %xmm8 mulpd %xmm4, %xmm9 mulpd %xmm5, %xmm10 mulpd %xmm5, %xmm11 addpd %xmm8, %xmm0 addpd %xmm9, %xmm1 addpd %xmm10, %xmm2 addpd %xmm11, %xmm3 ALIGN_3.L67: movq N, %rax andq $1, %rax jle .L999 movsd 0 * SIZE(X), %xmm4 movhpd 1 * SIZE(X), %xmm4 addq INCX, X MOVDDUP( 0 * SIZE, Y, %xmm8) MOVDDUP( 1 * SIZE, Y, %xmm9) mulpd %xmm4, %xmm8 mulpd %xmm4, %xmm9 addpd %xmm8, %xmm0 addpd %xmm9, %xmm1 jmp .L999 ALIGN_3.L999: addpd %xmm0, %xmm2 addpd %xmm1, %xmm3 movapd %xmm2, %xmm0 unpckhpd %xmm2, %xmm2 movapd %xmm3, %xmm1 unpckhpd %xmm3, %xmm3#ifndef CONJ subsd %xmm3, %xmm0 addsd %xmm2, %xmm1#else addsd %xmm3, %xmm0 subsd %xmm2, %xmm1#endif#if defined(F_INTERFACE) && defined(F_INTERFACE_F2C) movsd %xmm0, 0 * SIZE(RESULT) movsd %xmm1, 1 * SIZE(RESULT)#endif RESTOREREGISTERS ret EPILOGUE
⌨️ 快捷键说明
复制代码
Ctrl + C
搜索代码
Ctrl + F
全屏模式
F11
切换主题
Ctrl + Shift + D
显示快捷键
?
增大字号
Ctrl + =
减小字号
Ctrl + -