Home
last modified time | relevance | path

Searched refs:vpxor (Results 1 - 25 of 46) sorted by relevance

12

/kernel/linux/linux-5.10/arch/x86/crypto/
H A Dserpent-avx-x86_64-asm_64.S57 vpxor x3, x0, x0; \
58 vpxor x2, x3, x4; \
59 vpxor RNOT, x4, x4; \
60 vpxor x1, tp, x3; \
62 vpxor x4, x1, x1; \
63 vpxor x0, x2, x2;
65 vpxor x3, x0, x0; \
67 vpxor x2, x0, x0; \
69 vpxor x2, x3, x3; \
70 vpxor RNO
[all...]
H A Dserpent-avx2-asm_64.S63 vpxor x3, x0, x0; \
64 vpxor x2, x3, x4; \
65 vpxor RNOT, x4, x4; \
66 vpxor x1, tp, x3; \
68 vpxor x4, x1, x1; \
69 vpxor x0, x2, x2;
71 vpxor x3, x0, x0; \
73 vpxor x2, x0, x0; \
75 vpxor x2, x3, x3; \
76 vpxor RNO
[all...]
H A Dcamellia-aesni-avx2-asm_64.S32 vpxor tmp0, x, x;
100 vpxor t4##_x, t4##_x, t4##_x; \
153 vpxor t7, t7, t7; \
161 vpxor x5, x0, x0; \
162 vpxor x6, x1, x1; \
163 vpxor x7, x2, x2; \
164 vpxor x4, x3, x3; \
172 vpxor x2, x4, x4; \
173 vpxor x3, x5, x5; \
174 vpxor x
[all...]
H A Dcamellia-aesni-avx-asm_64.S41 vpxor tmp0, x, x;
82 vpxor t4, t4, t4; \
112 vpxor t6, t6, t6; \
135 vpxor x5, x0, x0; \
136 vpxor x6, x1, x1; \
137 vpxor x7, x2, x2; \
138 vpxor x4, x3, x3; \
140 vpxor x2, x4, x4; \
141 vpxor x3, x5, x5; \
142 vpxor x
[all...]
H A Dglue_helper-asm-avx2.S29 vpxor t0, t0, t0; \
31 vpxor t0, x0, x0; \
32 vpxor (0*32+16)(src), x1, x1; \
33 vpxor (1*32+16)(src), x2, x2; \
34 vpxor (2*32+16)(src), x3, x3; \
35 vpxor (3*32+16)(src), x4, x4; \
36 vpxor (4*32+16)(src), x5, x5; \
37 vpxor (5*32+16)(src), x6, x6; \
38 vpxor (6*32+16)(src), x7, x7; \
89 vpxor (
[all...]
H A Dglue_helper-asm-avx.S29 vpxor (0*16)(src), x1, x1; \
30 vpxor (1*16)(src), x2, x2; \
31 vpxor (2*16)(src), x3, x3; \
32 vpxor (3*16)(src), x4, x4; \
33 vpxor (4*16)(src), x5, x5; \
34 vpxor (5*16)(src), x6, x6; \
35 vpxor (6*16)(src), x7, x7; \
73 vpxor (0*16)(src), x0, x0; \
74 vpxor (1*16)(src), x1, x1; \
75 vpxor (
[all...]
H A Daesni-intel_avx-x86_64.S284 vpxor (arg1), \XMM0, \XMM0
477 vpxor %xmm1, %xmm9, %xmm9 # Plaintext XOR E(K, Yn)
483 vpxor %xmm2, %xmm14, %xmm14
487 vpxor %xmm1, %xmm9, %xmm9 # Plaintext XOR E(K, Yn)
492 vpxor %xmm9, %xmm14, %xmm14
546 vpxor %xmm1, %xmm15, %xmm15 # xmm15 = len(A)||len(C)
548 vpxor %xmm15, %xmm14, %xmm14
556 vpxor %xmm14, %xmm9, %xmm9
613 vpxor \T8, \T8, \T8
614 vpxor \T
[all...]
H A Dchacha-avx2-x86_64.S73 vpxor %ymm0,%ymm3,%ymm3
78 vpxor %ymm2,%ymm1,%ymm1
86 vpxor %ymm0,%ymm3,%ymm3
91 vpxor %ymm2,%ymm1,%ymm1
106 vpxor %ymm0,%ymm3,%ymm3
111 vpxor %ymm2,%ymm1,%ymm1
119 vpxor %ymm0,%ymm3,%ymm3
124 vpxor %ymm2,%ymm1,%ymm1
144 vpxor 0x00(%rdx),%xmm7,%xmm6
151 vpxor
[all...]
H A Dcast5-avx-x86_64-asm_64.S132 vpxor a1, RX, a1; \
133 vpxor a2, RTMP, a2;
138 F_2(a1, b1, a2, b2, vpxor, subl, addl, xorl)
156 vpxor kr(CTX), RKR, RKR;
161 vpxor kr(CTX), RKR, RKR; \
465 vpxor RX, RR1, RR1;
466 vpxor 0*16+8(%r12), RL1, RL1;
467 vpxor 1*16+8(%r12), RR2, RR2;
468 vpxor 2*16+8(%r12), RL2, RL2;
469 vpxor
[all...]
H A Dblake2s-core.S192 vpxor %xmm15,%xmm4,%xmm3
208 vpxor %xmm0,%xmm3,%xmm3
211 vpxor %xmm2,%xmm1,%xmm1
216 vpxor %xmm0,%xmm3,%xmm3
219 vpxor %xmm2,%xmm1,%xmm1
226 vpxor %xmm0,%xmm3,%xmm3
229 vpxor %xmm2,%xmm1,%xmm1
234 vpxor %xmm0,%xmm3,%xmm3
237 vpxor %xmm2,%xmm1,%xmm1
244 vpxor
[all...]
/kernel/linux/linux-6.6/arch/x86/crypto/
H A Dserpent-avx2-asm_64.S53 vpxor x3, x0, x0; \
54 vpxor x2, x3, x4; \
55 vpxor RNOT, x4, x4; \
56 vpxor x1, tp, x3; \
58 vpxor x4, x1, x1; \
59 vpxor x0, x2, x2;
61 vpxor x3, x0, x0; \
63 vpxor x2, x0, x0; \
65 vpxor x2, x3, x3; \
66 vpxor RNO
[all...]
H A Dserpent-avx-x86_64-asm_64.S53 vpxor x3, x0, x0; \
54 vpxor x2, x3, x4; \
55 vpxor RNOT, x4, x4; \
56 vpxor x1, tp, x3; \
58 vpxor x4, x1, x1; \
59 vpxor x0, x2, x2;
61 vpxor x3, x0, x0; \
63 vpxor x2, x0, x0; \
65 vpxor x2, x3, x3; \
66 vpxor RNO
[all...]
H A Dsm4-aesni-avx-asm_64.S67 vpxor tmp0, x, x;
79 vpxor tmp0, x, x;
190 vpxor s1, RX0, RX0; \
191 vpxor s2, RX0, RX0; \
192 vpxor s3, RX0, RX0; /* s1 ^ s2 ^ s3 ^ rk */ \
201 vpxor RTMP0, s0, s0; /* s0 ^ x */ \
203 vpxor RTMP1, RTMP0, RTMP0; /* x ^ rol(x,8) */ \
205 vpxor RTMP1, RTMP0, RTMP0; /* x ^ rol(x,8) ^ rol(x,16) */ \
207 vpxor RTMP1, s0, s0; /* s0 ^ x ^ rol(x,24) */ \
210 vpxor RTMP
[all...]
H A Dsm4-aesni-avx2-asm_64.S83 vpxor tmp0, x, x;
94 vpxor tmp0, x, x;
187 vpxor s1, RX0, RX0; \
188 vpxor s2, RX0, RX0; \
189 vpxor s3, RX0, RX0; /* s1 ^ s2 ^ s3 ^ rk */ \
192 vpxor r1, RX1, RX1; \
193 vpxor r2, RX1, RX1; \
194 vpxor r3, RX1, RX1; /* r1 ^ r2 ^ r3 ^ rk */ \
213 vpxor RTMP0, s0, s0; /* s0 ^ x */ \
216 vpxor RTMP
[all...]
H A Daesni-intel_avx-x86_64.S250 vpxor (arg1), \XMM0, \XMM0
443 vpxor %xmm1, %xmm9, %xmm9 # Plaintext XOR E(K, Yn)
449 vpxor %xmm2, %xmm14, %xmm14
453 vpxor %xmm1, %xmm9, %xmm9 # Plaintext XOR E(K, Yn)
458 vpxor %xmm9, %xmm14, %xmm14
512 vpxor %xmm1, %xmm15, %xmm15 # xmm15 = len(A)||len(C)
514 vpxor %xmm15, %xmm14, %xmm14
522 vpxor %xmm14, %xmm9, %xmm9
579 vpxor \T8, \T8, \T8
580 vpxor \T
[all...]
H A Dcamellia-aesni-avx2-asm_64.S31 vpxor tmp0, x, x;
99 vpxor t4##_x, t4##_x, t4##_x; \
152 vpxor t7, t7, t7; \
160 vpxor x5, x0, x0; \
161 vpxor x6, x1, x1; \
162 vpxor x7, x2, x2; \
163 vpxor x4, x3, x3; \
171 vpxor x2, x4, x4; \
172 vpxor x3, x5, x5; \
173 vpxor x
[all...]
H A Dcamellia-aesni-avx-asm_64.S40 vpxor tmp0, x, x;
81 vpxor t4, t4, t4; \
111 vpxor t6, t6, t6; \
134 vpxor x5, x0, x0; \
135 vpxor x6, x1, x1; \
136 vpxor x7, x2, x2; \
137 vpxor x4, x3, x3; \
139 vpxor x2, x4, x4; \
140 vpxor x3, x5, x5; \
141 vpxor x
[all...]
H A Dchacha-avx2-x86_64.S73 vpxor %ymm0,%ymm3,%ymm3
78 vpxor %ymm2,%ymm1,%ymm1
86 vpxor %ymm0,%ymm3,%ymm3
91 vpxor %ymm2,%ymm1,%ymm1
106 vpxor %ymm0,%ymm3,%ymm3
111 vpxor %ymm2,%ymm1,%ymm1
119 vpxor %ymm0,%ymm3,%ymm3
124 vpxor %ymm2,%ymm1,%ymm1
144 vpxor 0x00(%rdx),%xmm7,%xmm6
151 vpxor
[all...]
H A Dglue_helper-asm-avx2.S29 vpxor t0, t0, t0; \
31 vpxor t0, x0, x0; \
32 vpxor (0*32+16)(src), x1, x1; \
33 vpxor (1*32+16)(src), x2, x2; \
34 vpxor (2*32+16)(src), x3, x3; \
35 vpxor (3*32+16)(src), x4, x4; \
36 vpxor (4*32+16)(src), x5, x5; \
37 vpxor (5*32+16)(src), x6, x6; \
38 vpxor (6*32+16)(src), x7, x7; \
H A Daria-aesni-avx-asm_64.S51 vpxor tmp0, x, x;
276 vpxor t2, x0, x0; \
279 vpxor t2, x1, x1; \
282 vpxor t2, x2, x2; \
284 vpxor t2, x3, x3; \
288 vpxor t2, x4, x4; \
291 vpxor t2, x5, x5; \
294 vpxor t2, x6, x6; \
296 vpxor t2, x7, x7;
368 vpxor x
[all...]
H A Dglue_helper-asm-avx.S29 vpxor (0*16)(src), x1, x1; \
30 vpxor (1*16)(src), x2, x2; \
31 vpxor (2*16)(src), x3, x3; \
32 vpxor (3*16)(src), x4, x4; \
33 vpxor (4*16)(src), x5, x5; \
34 vpxor (5*16)(src), x6, x6; \
35 vpxor (6*16)(src), x7, x7; \
H A Daria-aesni-avx2-asm_64.S67 vpxor tmp0, x, x;
289 vpxor t0, x0, x0; \
291 vpxor t0, x1, x1; \
293 vpxor t0, x2, x2; \
295 vpxor t0, x3, x3; \
297 vpxor t0, x4, x4; \
299 vpxor t0, x5, x5; \
301 vpxor t0, x6, x6; \
303 vpxor t0, x7, x7;
333 vpxor t
[all...]
H A Dcast5-avx-x86_64-asm_64.S136 vpxor a1, RX, a1; \
137 vpxor a2, RTMP, a2;
142 F_2(a1, b1, a2, b2, vpxor, subl, addl, xorl)
160 vpxor kr(CTX), RKR, RKR;
165 vpxor kr(CTX), RKR, RKR; \
467 vpxor RX, RR1, RR1;
468 vpxor 0*16+8(%r12), RL1, RL1;
469 vpxor 1*16+8(%r12), RR2, RR2;
470 vpxor 2*16+8(%r12), RL2, RL2;
471 vpxor
[all...]
H A Dblake2s-core.S192 vpxor %xmm15,%xmm4,%xmm3
208 vpxor %xmm0,%xmm3,%xmm3
211 vpxor %xmm2,%xmm1,%xmm1
216 vpxor %xmm0,%xmm3,%xmm3
219 vpxor %xmm2,%xmm1,%xmm1
226 vpxor %xmm0,%xmm3,%xmm3
229 vpxor %xmm2,%xmm1,%xmm1
234 vpxor %xmm0,%xmm3,%xmm3
237 vpxor %xmm2,%xmm1,%xmm1
244 vpxor
[all...]
H A Dpolyval-clmulni_asm.S96 vpxor %xmm2, MI, MI
97 vpxor %xmm1, LO, LO
98 vpxor %xmm4, HI, HI
99 vpxor %xmm3, MI, MI
112 vpxor %xmm2, MI, MI
171 vpxor TMP_XMM, PH, \dest
215 vpxor TMP_XMM, PH, SUM

Completed in 10 milliseconds

12