Home
last modified time | relevance | path

Searched refs:q8 (Results 1 - 25 of 89) sorted by relevance

1234

/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/aes/
H A Dbsaes-armv7.S99 vldmia r6!, {q8} @ .LM0ISR
124 vmov.i8 q8,#0x55 @ compose .LBS0
130 vand q10, q10, q8
131 vand q11, q11, q8
142 vand q10, q10, q8
143 vand q11, q11, q8
150 vmov.i8 q8,#0x0f @ compose .LBS2
179 vand q10, q10, q8
180 vand q11, q11, q8
191 vand q10, q10, q8
[all...]
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/aes/
H A Dbsaes-armv7.S99 vldmia r6!, {q8} @ .LM0ISR
124 vmov.i8 q8,#0x55 @ compose .LBS0
130 vand q10, q10, q8
131 vand q11, q11, q8
142 vand q10, q10, q8
143 vand q11, q11, q8
150 vmov.i8 q8,#0x0f @ compose .LBS2
179 vand q10, q10, q8
180 vand q11, q11, q8
191 vand q10, q10, q8
[all...]
/third_party/ffmpeg/libavcodec/arm/
H A Dh264cmc_neon.S67 vmull.u8 q8, d4, d0
68 vmlal.u8 q8, d5, d1
71 vmlal.u8 q8, d6, d2
74 vmlal.u8 q8, d7, d3
82 vrshrn.u16 d16, q8, #6
85 vadd.u16 q8, q8, q11
87 vshrn.u16 d16, q8, #6
93 vrhadd.u8 q8, q8, q1
[all...]
H A Dhevcdsp_idct_neon.S50 vmovl.u8 q8, d4
52 vqadd.s16 q0, q0, q8
91 vmovl.u8 q8, d17
93 vqadd.s16 q1, q8
110 vld1.16 {q8}, [r0, :128]
111 vqadd.s16 q0, q8
126 vld1.8 {q8}, [r0, :128]
155 vld1.16 {q8-q9}, [r0, :128]
157 vqadd.s16 q0, q8
178 vmovl.u8 q8, d2
[all...]
H A Dvorbisdsp_neon.S33 vcle.s32 q8, q12, #0
36 vand q2, q12, q8
37 vbic q3, q12, q8
42 vcle.s32 q8, q1, #0
47 vand q2, q1, q8
48 vbic q3, q1, q8
55 vcle.s32 q8, q12, #0
60 vand q2, q12, q8
61 vbic q3, q12, q8
73 vcle.s32 q8, q
[all...]
H A Dh264dsp_neon.S44 vabd.u8 q6, q8, q0 @ abs(p0 - q0)
46 vabd.u8 q14, q9, q8 @ abs(p1 - p0)
56 vabd.u8 q4, q10, q8 @ abs(p2 - p0)
65 vrhadd.u8 q14, q8, q0
156 transpose_8x8 q3, q10, q9, q8, q0, q1, q2, q13
162 transpose_4x4 q4, q8, q0, q5
298 vmov q2, q8
299 vmov q3, q8
309 vmov q12, q8
311 vmov q13, q8
[all...]
H A Dhpeldsp_neon.S37 vld1.8 {q8}, [r12,:128], r2
38 vrhadd.u8 q0, q0, q8
90 vld1.8 {q8}, [r0,:128], r2
92 vrhadd.u8 q2, q2, q8
104 vld1.8 {q8}, [r0,:128], r2
106 vrhadd.u8 q2, q2, q8
125 vaddl.u8 q8, d0, d2
131 vadd.u16 q12, q8, q9
140 vld1.8 {q8}, [r0,:128]
141 vrhadd.u8 q14, q14, q8
[all...]
H A Dfmtconvert_neon.S35 vcvt.f32.s32 q8, q2
39 vmul.f32 q10, q8, q0
44 vcvt.f32.s32 q8, q2
66 vdup.32 q8, d20[0]
69 vmul.f32 q0, q0, q8
71 vmul.f32 q1, q1, q8
84 vmul.f32 q0, q0, q8
85 vmul.f32 q1, q1, q8
H A Dh264idct_neon.S32 vshr.s16 q8, q1, #1
47 vshr.s16 q8, q1, #1
190 vadd.i16 q0, q8, q12
194 vsub.i16 q1, q8, q12
201 vtrn.32 q8, q10
211 vadd.i16 q0, q8, q12
213 vsub.i16 q1, q8, q12
219 vadd.i16 q8, q0, q3
246 vsub.i16 q15, q8, q3
247 vadd.i16 q8, q
[all...]
H A Dvp3dsp_neon.S121 vadd.s16 q1, q8, q12
122 vsub.s16 q8, q8, q12
140 vadd.s16 q8, q8, q4 // F = (ip[0] - ip[4]) * C4
222 vadd.s16 q8, q8, q0
230 vsub.s16 q3, q8, q10 // Fd = F - Ad
231 vadd.s16 q10, q8, q10 // Add = F + Ad
234 vadd.s16 q8, q
[all...]
H A Dvc1dsp_neon.S65 @ vadd.i16 q0, q8, q10
71 @ vhadd.s16 q0, q8, q10
85 @ Trashes: r12 q8 q9 q10 q11 q12 q13
96 vmov.i16 q8, #\add @ t1 will accumulate here
102 vmla.i16 q8, q12, d0[0] @ t1 = 17 * (temp1) + 4
108 vhadd.s16 q0, q8, q10 @ dst[0] = (t1 + t3) >> 1
109 vhsub.s16 q3, q8, q10 @ dst[3] = (t1 - t3) >> 1
161 vshl.i16 q8, q1, #4 @ t1|t2 = 16 * (src[8]|src[40])
169 vadd.i16 q8, q8, q
[all...]
H A Dsbrdsp_neon.S38 vld1.32 {q8}, [lr,:128]!
39 vadd.f32 q0, q0, q8
61 vmov.i32 q8, #1<<31
63 veor q1, q1, q8
67 veor q3, q3, q8
70 veor q1, q1, q8
73 veor q3, q3, q8
86 vmov.i32 q8, #1<<31
93 veor q0, q0, q8
99 veor q9, q9, q8
[all...]
H A Drv34dsp_neon.S43 vsub.s32 q8, q10, q13 @ z0 - z3
46 vtrn.32 q3, q8
55 vshl.s32 q11, q8, #4
57 vshl.s32 q15, q8, #3
59 vadd.s32 q11, q11, q8
61 vsub.s32 q8, q15, q8
63 vadd.s32 q9, q9, q8
81 vtrn.32 q8, q9
89 vaddw.u8 q0, q8, d2
[all...]
H A Dvp9mc_16bpp_neon.S38 vld1.16 {q8, q9}, [r2]!
39 vst1.16 {q8, q9}, [r0, :128]!
54 vld1.16 {q8, q9}, [r2]!
57 vrhadd.u16 q0, q0, q8
64 vld1.16 {q8, q9}, [r0, :128]!
66 vrhadd.u16 q8, q8, q12
71 vst1.16 {q8, q9}, [lr, :128]!
86 vld1.16 {q8, q9}, [r2]!
89 vrhadd.u16 q0, q0, q8
[all...]
H A Dhevcdsp_qpel_neon.S89 vmull.s16 q8, d11, d17 // 5 * f1
101 vsub.s32 q14, q8 // g1 - a1 - 5 * f1
109 // output q8
111 vmov.i32 q8, #11
116 vmul.s32 q11, q8 // 11 * (c0 + f0)
117 vmul.s32 q12, q8 // 11 * (c1 + f1)
118 vmov.i32 q8, #40
120 vmul.s32 q9, q8 // 40 * (d0 + e0)
121 vmul.s32 q10, q8 // 40 * (d1 + e1)
122 vaddl.s16 q8, d
[all...]
/third_party/ffmpeg/libavresample/arm/
H A Daudio_convert_neon.S27 vcvt.s32.f32 q8, q0, #31
34 vqrshrn.s32 d4, q8, #16
43 vld1.32 {q8}, [r1,:128]!
44 vcvt.s32.f32 q8, q8, #31
52 vqrshrn.s32 d4, q8, #16
62 3: vqrshrn.s32 d4, q8, #16
72 vcvt.s32.f32 q8, q0, #31
85 vsri.32 q10, q8, #16
96 vld1.32 {q8}, [r
[all...]
H A Dresample_neon.S130 veor.f32 q8, q8
156 vmlal.s32 q8, d0, d4[0]
159 vmlal.s32 q8, d0, d4
162 vmlal.s32 q8, d0, d4
166 vmull.s32 q8, d0, d4
170 veor.s64 q8, q8
174 vadd.s64 q8, q8, q
[all...]
/third_party/ffmpeg/libswresample/arm/
H A Daudio_convert_neon.S28 vcvt.s32.f32 q8, q0, #31
35 vqrshrn.s32 d4, q8, #16
44 vld1.32 {q8}, [r1,:128]!
45 vcvt.s32.f32 q8, q8, #31
53 vqrshrn.s32 d4, q8, #16
63 3: vqrshrn.s32 d4, q8, #16
74 vcvt.s32.f32 q8, q0, #31
87 vsri.32 q10, q8, #16
98 vld1.32 {q8}, [r
[all...]
/third_party/node/deps/openssl/openssl/crypto/aes/asm/
H A Daesv8-armx.pl426 ### q8-q9 preloaded round keys except last 7 keys for big size
427 ### q5, q6, q8-q9 preloaded round keys except last 7 keys for only 16 byte
456 vld1.32 {q8-q9},[$key],#32 // load key schedule...
462 aese $dat0,q8
464 vld1.32 {q8},[$key],#16 // load key schedule...
472 aese $dat0,q8
496 vld1.32 {q8-q9},[$key],#32 // load key schedule...
502 aesd $dat0,q8
504 vld1.32 {q8},[$key],#16 // load key schedule...
512 aesd $dat0,q8
[all...]
/third_party/openssl/crypto/aes/asm/
H A Daesv8-armx.pl442 ### q8-q9 preloaded round keys except last 7 keys for big size
443 ### q5, q6, q8-q9 preloaded round keys except last 7 keys for only 16 byte
472 vld1.32 {q8-q9},[$key],#32 // load key schedule...
478 aese $dat0,q8
480 vld1.32 {q8},[$key],#16 // load key schedule...
488 aese $dat0,q8
512 vld1.32 {q8-q9},[$key],#32 // load key schedule...
518 aesd $dat0,q8
520 vld1.32 {q8},[$key],#16 // load key schedule...
528 aesd $dat0,q8
[all...]
/third_party/ffmpeg/libavutil/arm/
H A Dfloat_dsp_neon.S29 vmul.f32 q8, q0, q2
44 vmul.f32 q8, q0, q2
55 vmul.f32 q8, q0, q2
75 vld1.32 {q8}, [acc,:128]!
78 1: vmla.f32 q8, q0, q15
85 vst1.32 {q8}, [r0,:128]!
91 vld1.32 {q8}, [acc,:128]!
103 vld1.32 {q8}, [acc,:128]!
104 vmla.f32 q8, q0, q15
105 vst1.32 {q8}, [r
[all...]
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/modes/
H A Dghashv8-armx.S25 vext.8 q8,q10,q11,#8 @ t0=0xc2....01
28 vand q10,q10,q8
31 vand q8,q8,q9
33 veor q12,q3,q8 @ twisted H
37 vext.8 q8,q12,q12,#8 @ Karatsuba pre-processing
39 veor q8,q8,q12
41 INST(0xa0,0x2e,0xa0,0xf2) @ pmull q1,q8,q8
[all...]
H A Dghash-armv4.S358 vmov.i8 q8,#0xe1
366 vand q8,q8,q9
368 veor q3,q3,q8 @ twisted H
416 vmull.p8 q8, d16, d6 @ F = A1*B
424 veor q8, q8, q0 @ L = E + F
440 vext.8 q8, q8, q8, #1
[all...]
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/modes/
H A Dghashv8-armx.S25 vext.8 q8,q10,q11,#8 @ t0=0xc2....01
28 vand q10,q10,q8
31 vand q8,q8,q9
33 veor q12,q3,q8 @ twisted H
37 vext.8 q8,q12,q12,#8 @ Karatsuba pre-processing
39 veor q8,q8,q12
41 INST(0xa0,0x2e,0xa0,0xf2) @ pmull q1,q8,q8
[all...]
H A Dghash-armv4.S358 vmov.i8 q8,#0xe1
366 vand q8,q8,q9
368 veor q3,q3,q8 @ twisted H
416 vmull.p8 q8, d16, d6 @ F = A1*B
424 veor q8, q8, q0 @ L = E + F
440 vext.8 q8, q8, q8, #1
[all...]

Completed in 8 milliseconds

1234