/kernel/linux/linux-5.10/arch/x86/crypto/ |
H A D | serpent-avx-x86_64-asm_64.S | 57 vpxor x3, x0, x0; \ 58 vpxor x2, x3, x4; \ 59 vpxor RNOT, x4, x4; \ 60 vpxor x1, tp, x3; \ 62 vpxor x4, x1, x1; \ 63 vpxor x0, x2, x2; 65 vpxor x3, x0, x0; \ 67 vpxor x2, x0, x0; \ 69 vpxor x2, x3, x3; \ 70 vpxor RNO [all...] |
H A D | serpent-avx2-asm_64.S | 63 vpxor x3, x0, x0; \ 64 vpxor x2, x3, x4; \ 65 vpxor RNOT, x4, x4; \ 66 vpxor x1, tp, x3; \ 68 vpxor x4, x1, x1; \ 69 vpxor x0, x2, x2; 71 vpxor x3, x0, x0; \ 73 vpxor x2, x0, x0; \ 75 vpxor x2, x3, x3; \ 76 vpxor RNO [all...] |
H A D | camellia-aesni-avx2-asm_64.S | 32 vpxor tmp0, x, x; 100 vpxor t4##_x, t4##_x, t4##_x; \ 153 vpxor t7, t7, t7; \ 161 vpxor x5, x0, x0; \ 162 vpxor x6, x1, x1; \ 163 vpxor x7, x2, x2; \ 164 vpxor x4, x3, x3; \ 172 vpxor x2, x4, x4; \ 173 vpxor x3, x5, x5; \ 174 vpxor x [all...] |
H A D | camellia-aesni-avx-asm_64.S | 41 vpxor tmp0, x, x; 82 vpxor t4, t4, t4; \ 112 vpxor t6, t6, t6; \ 135 vpxor x5, x0, x0; \ 136 vpxor x6, x1, x1; \ 137 vpxor x7, x2, x2; \ 138 vpxor x4, x3, x3; \ 140 vpxor x2, x4, x4; \ 141 vpxor x3, x5, x5; \ 142 vpxor x [all...] |
H A D | glue_helper-asm-avx2.S | 29 vpxor t0, t0, t0; \ 31 vpxor t0, x0, x0; \ 32 vpxor (0*32+16)(src), x1, x1; \ 33 vpxor (1*32+16)(src), x2, x2; \ 34 vpxor (2*32+16)(src), x3, x3; \ 35 vpxor (3*32+16)(src), x4, x4; \ 36 vpxor (4*32+16)(src), x5, x5; \ 37 vpxor (5*32+16)(src), x6, x6; \ 38 vpxor (6*32+16)(src), x7, x7; \ 89 vpxor ( [all...] |
H A D | glue_helper-asm-avx.S | 29 vpxor (0*16)(src), x1, x1; \ 30 vpxor (1*16)(src), x2, x2; \ 31 vpxor (2*16)(src), x3, x3; \ 32 vpxor (3*16)(src), x4, x4; \ 33 vpxor (4*16)(src), x5, x5; \ 34 vpxor (5*16)(src), x6, x6; \ 35 vpxor (6*16)(src), x7, x7; \ 73 vpxor (0*16)(src), x0, x0; \ 74 vpxor (1*16)(src), x1, x1; \ 75 vpxor ( [all...] |
H A D | aesni-intel_avx-x86_64.S | 284 vpxor (arg1), \XMM0, \XMM0 477 vpxor %xmm1, %xmm9, %xmm9 # Plaintext XOR E(K, Yn) 483 vpxor %xmm2, %xmm14, %xmm14 487 vpxor %xmm1, %xmm9, %xmm9 # Plaintext XOR E(K, Yn) 492 vpxor %xmm9, %xmm14, %xmm14 546 vpxor %xmm1, %xmm15, %xmm15 # xmm15 = len(A)||len(C) 548 vpxor %xmm15, %xmm14, %xmm14 556 vpxor %xmm14, %xmm9, %xmm9 613 vpxor \T8, \T8, \T8 614 vpxor \T [all...] |
H A D | chacha-avx2-x86_64.S | 73 vpxor %ymm0,%ymm3,%ymm3 78 vpxor %ymm2,%ymm1,%ymm1 86 vpxor %ymm0,%ymm3,%ymm3 91 vpxor %ymm2,%ymm1,%ymm1 106 vpxor %ymm0,%ymm3,%ymm3 111 vpxor %ymm2,%ymm1,%ymm1 119 vpxor %ymm0,%ymm3,%ymm3 124 vpxor %ymm2,%ymm1,%ymm1 144 vpxor 0x00(%rdx),%xmm7,%xmm6 151 vpxor [all...] |
H A D | cast5-avx-x86_64-asm_64.S | 132 vpxor a1, RX, a1; \ 133 vpxor a2, RTMP, a2; 138 F_2(a1, b1, a2, b2, vpxor, subl, addl, xorl) 156 vpxor kr(CTX), RKR, RKR; 161 vpxor kr(CTX), RKR, RKR; \ 465 vpxor RX, RR1, RR1; 466 vpxor 0*16+8(%r12), RL1, RL1; 467 vpxor 1*16+8(%r12), RR2, RR2; 468 vpxor 2*16+8(%r12), RL2, RL2; 469 vpxor [all...] |
H A D | blake2s-core.S | 192 vpxor %xmm15,%xmm4,%xmm3 208 vpxor %xmm0,%xmm3,%xmm3 211 vpxor %xmm2,%xmm1,%xmm1 216 vpxor %xmm0,%xmm3,%xmm3 219 vpxor %xmm2,%xmm1,%xmm1 226 vpxor %xmm0,%xmm3,%xmm3 229 vpxor %xmm2,%xmm1,%xmm1 234 vpxor %xmm0,%xmm3,%xmm3 237 vpxor %xmm2,%xmm1,%xmm1 244 vpxor [all...] |
/kernel/linux/linux-6.6/arch/x86/crypto/ |
H A D | serpent-avx2-asm_64.S | 53 vpxor x3, x0, x0; \ 54 vpxor x2, x3, x4; \ 55 vpxor RNOT, x4, x4; \ 56 vpxor x1, tp, x3; \ 58 vpxor x4, x1, x1; \ 59 vpxor x0, x2, x2; 61 vpxor x3, x0, x0; \ 63 vpxor x2, x0, x0; \ 65 vpxor x2, x3, x3; \ 66 vpxor RNO [all...] |
H A D | serpent-avx-x86_64-asm_64.S | 53 vpxor x3, x0, x0; \ 54 vpxor x2, x3, x4; \ 55 vpxor RNOT, x4, x4; \ 56 vpxor x1, tp, x3; \ 58 vpxor x4, x1, x1; \ 59 vpxor x0, x2, x2; 61 vpxor x3, x0, x0; \ 63 vpxor x2, x0, x0; \ 65 vpxor x2, x3, x3; \ 66 vpxor RNO [all...] |
H A D | sm4-aesni-avx-asm_64.S | 67 vpxor tmp0, x, x; 79 vpxor tmp0, x, x; 190 vpxor s1, RX0, RX0; \ 191 vpxor s2, RX0, RX0; \ 192 vpxor s3, RX0, RX0; /* s1 ^ s2 ^ s3 ^ rk */ \ 201 vpxor RTMP0, s0, s0; /* s0 ^ x */ \ 203 vpxor RTMP1, RTMP0, RTMP0; /* x ^ rol(x,8) */ \ 205 vpxor RTMP1, RTMP0, RTMP0; /* x ^ rol(x,8) ^ rol(x,16) */ \ 207 vpxor RTMP1, s0, s0; /* s0 ^ x ^ rol(x,24) */ \ 210 vpxor RTMP [all...] |
H A D | sm4-aesni-avx2-asm_64.S | 83 vpxor tmp0, x, x; 94 vpxor tmp0, x, x; 187 vpxor s1, RX0, RX0; \ 188 vpxor s2, RX0, RX0; \ 189 vpxor s3, RX0, RX0; /* s1 ^ s2 ^ s3 ^ rk */ \ 192 vpxor r1, RX1, RX1; \ 193 vpxor r2, RX1, RX1; \ 194 vpxor r3, RX1, RX1; /* r1 ^ r2 ^ r3 ^ rk */ \ 213 vpxor RTMP0, s0, s0; /* s0 ^ x */ \ 216 vpxor RTMP [all...] |
H A D | aesni-intel_avx-x86_64.S | 250 vpxor (arg1), \XMM0, \XMM0 443 vpxor %xmm1, %xmm9, %xmm9 # Plaintext XOR E(K, Yn) 449 vpxor %xmm2, %xmm14, %xmm14 453 vpxor %xmm1, %xmm9, %xmm9 # Plaintext XOR E(K, Yn) 458 vpxor %xmm9, %xmm14, %xmm14 512 vpxor %xmm1, %xmm15, %xmm15 # xmm15 = len(A)||len(C) 514 vpxor %xmm15, %xmm14, %xmm14 522 vpxor %xmm14, %xmm9, %xmm9 579 vpxor \T8, \T8, \T8 580 vpxor \T [all...] |
H A D | camellia-aesni-avx2-asm_64.S | 31 vpxor tmp0, x, x; 99 vpxor t4##_x, t4##_x, t4##_x; \ 152 vpxor t7, t7, t7; \ 160 vpxor x5, x0, x0; \ 161 vpxor x6, x1, x1; \ 162 vpxor x7, x2, x2; \ 163 vpxor x4, x3, x3; \ 171 vpxor x2, x4, x4; \ 172 vpxor x3, x5, x5; \ 173 vpxor x [all...] |
H A D | camellia-aesni-avx-asm_64.S | 40 vpxor tmp0, x, x; 81 vpxor t4, t4, t4; \ 111 vpxor t6, t6, t6; \ 134 vpxor x5, x0, x0; \ 135 vpxor x6, x1, x1; \ 136 vpxor x7, x2, x2; \ 137 vpxor x4, x3, x3; \ 139 vpxor x2, x4, x4; \ 140 vpxor x3, x5, x5; \ 141 vpxor x [all...] |
H A D | chacha-avx2-x86_64.S | 73 vpxor %ymm0,%ymm3,%ymm3 78 vpxor %ymm2,%ymm1,%ymm1 86 vpxor %ymm0,%ymm3,%ymm3 91 vpxor %ymm2,%ymm1,%ymm1 106 vpxor %ymm0,%ymm3,%ymm3 111 vpxor %ymm2,%ymm1,%ymm1 119 vpxor %ymm0,%ymm3,%ymm3 124 vpxor %ymm2,%ymm1,%ymm1 144 vpxor 0x00(%rdx),%xmm7,%xmm6 151 vpxor [all...] |
H A D | glue_helper-asm-avx2.S | 29 vpxor t0, t0, t0; \ 31 vpxor t0, x0, x0; \ 32 vpxor (0*32+16)(src), x1, x1; \ 33 vpxor (1*32+16)(src), x2, x2; \ 34 vpxor (2*32+16)(src), x3, x3; \ 35 vpxor (3*32+16)(src), x4, x4; \ 36 vpxor (4*32+16)(src), x5, x5; \ 37 vpxor (5*32+16)(src), x6, x6; \ 38 vpxor (6*32+16)(src), x7, x7; \
|
H A D | aria-aesni-avx-asm_64.S | 51 vpxor tmp0, x, x; 276 vpxor t2, x0, x0; \ 279 vpxor t2, x1, x1; \ 282 vpxor t2, x2, x2; \ 284 vpxor t2, x3, x3; \ 288 vpxor t2, x4, x4; \ 291 vpxor t2, x5, x5; \ 294 vpxor t2, x6, x6; \ 296 vpxor t2, x7, x7; 368 vpxor x [all...] |
H A D | glue_helper-asm-avx.S | 29 vpxor (0*16)(src), x1, x1; \ 30 vpxor (1*16)(src), x2, x2; \ 31 vpxor (2*16)(src), x3, x3; \ 32 vpxor (3*16)(src), x4, x4; \ 33 vpxor (4*16)(src), x5, x5; \ 34 vpxor (5*16)(src), x6, x6; \ 35 vpxor (6*16)(src), x7, x7; \
|
H A D | aria-aesni-avx2-asm_64.S | 67 vpxor tmp0, x, x; 289 vpxor t0, x0, x0; \ 291 vpxor t0, x1, x1; \ 293 vpxor t0, x2, x2; \ 295 vpxor t0, x3, x3; \ 297 vpxor t0, x4, x4; \ 299 vpxor t0, x5, x5; \ 301 vpxor t0, x6, x6; \ 303 vpxor t0, x7, x7; 333 vpxor t [all...] |
H A D | cast5-avx-x86_64-asm_64.S | 136 vpxor a1, RX, a1; \ 137 vpxor a2, RTMP, a2; 142 F_2(a1, b1, a2, b2, vpxor, subl, addl, xorl) 160 vpxor kr(CTX), RKR, RKR; 165 vpxor kr(CTX), RKR, RKR; \ 467 vpxor RX, RR1, RR1; 468 vpxor 0*16+8(%r12), RL1, RL1; 469 vpxor 1*16+8(%r12), RR2, RR2; 470 vpxor 2*16+8(%r12), RL2, RL2; 471 vpxor [all...] |
H A D | blake2s-core.S | 192 vpxor %xmm15,%xmm4,%xmm3 208 vpxor %xmm0,%xmm3,%xmm3 211 vpxor %xmm2,%xmm1,%xmm1 216 vpxor %xmm0,%xmm3,%xmm3 219 vpxor %xmm2,%xmm1,%xmm1 226 vpxor %xmm0,%xmm3,%xmm3 229 vpxor %xmm2,%xmm1,%xmm1 234 vpxor %xmm0,%xmm3,%xmm3 237 vpxor %xmm2,%xmm1,%xmm1 244 vpxor [all...] |
H A D | polyval-clmulni_asm.S | 96 vpxor %xmm2, MI, MI 97 vpxor %xmm1, LO, LO 98 vpxor %xmm4, HI, HI 99 vpxor %xmm3, MI, MI 112 vpxor %xmm2, MI, MI 171 vpxor TMP_XMM, PH, \dest 215 vpxor TMP_XMM, PH, SUM
|