/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/aes/ |
H A D | bsaes-armv7.S | 99 vldmia r6!, {q8} @ .LM0ISR 124 vmov.i8 q8,#0x55 @ compose .LBS0 130 vand q10, q10, q8 131 vand q11, q11, q8 142 vand q10, q10, q8 143 vand q11, q11, q8 150 vmov.i8 q8,#0x0f @ compose .LBS2 179 vand q10, q10, q8 180 vand q11, q11, q8 191 vand q10, q10, q8 [all...] |
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/aes/ |
H A D | bsaes-armv7.S | 99 vldmia r6!, {q8} @ .LM0ISR 124 vmov.i8 q8,#0x55 @ compose .LBS0 130 vand q10, q10, q8 131 vand q11, q11, q8 142 vand q10, q10, q8 143 vand q11, q11, q8 150 vmov.i8 q8,#0x0f @ compose .LBS2 179 vand q10, q10, q8 180 vand q11, q11, q8 191 vand q10, q10, q8 [all...] |
/third_party/ffmpeg/libavcodec/arm/ |
H A D | h264cmc_neon.S | 67 vmull.u8 q8, d4, d0 68 vmlal.u8 q8, d5, d1 71 vmlal.u8 q8, d6, d2 74 vmlal.u8 q8, d7, d3 82 vrshrn.u16 d16, q8, #6 85 vadd.u16 q8, q8, q11 87 vshrn.u16 d16, q8, #6 93 vrhadd.u8 q8, q8, q1 [all...] |
H A D | hevcdsp_idct_neon.S | 50 vmovl.u8 q8, d4 52 vqadd.s16 q0, q0, q8 91 vmovl.u8 q8, d17 93 vqadd.s16 q1, q8 110 vld1.16 {q8}, [r0, :128] 111 vqadd.s16 q0, q8 126 vld1.8 {q8}, [r0, :128] 155 vld1.16 {q8-q9}, [r0, :128] 157 vqadd.s16 q0, q8 178 vmovl.u8 q8, d2 [all...] |
H A D | vorbisdsp_neon.S | 33 vcle.s32 q8, q12, #0 36 vand q2, q12, q8 37 vbic q3, q12, q8 42 vcle.s32 q8, q1, #0 47 vand q2, q1, q8 48 vbic q3, q1, q8 55 vcle.s32 q8, q12, #0 60 vand q2, q12, q8 61 vbic q3, q12, q8 73 vcle.s32 q8, q [all...] |
H A D | h264dsp_neon.S | 44 vabd.u8 q6, q8, q0 @ abs(p0 - q0) 46 vabd.u8 q14, q9, q8 @ abs(p1 - p0) 56 vabd.u8 q4, q10, q8 @ abs(p2 - p0) 65 vrhadd.u8 q14, q8, q0 156 transpose_8x8 q3, q10, q9, q8, q0, q1, q2, q13 162 transpose_4x4 q4, q8, q0, q5 298 vmov q2, q8 299 vmov q3, q8 309 vmov q12, q8 311 vmov q13, q8 [all...] |
H A D | hpeldsp_neon.S | 37 vld1.8 {q8}, [r12,:128], r2 38 vrhadd.u8 q0, q0, q8 90 vld1.8 {q8}, [r0,:128], r2 92 vrhadd.u8 q2, q2, q8 104 vld1.8 {q8}, [r0,:128], r2 106 vrhadd.u8 q2, q2, q8 125 vaddl.u8 q8, d0, d2 131 vadd.u16 q12, q8, q9 140 vld1.8 {q8}, [r0,:128] 141 vrhadd.u8 q14, q14, q8 [all...] |
H A D | fmtconvert_neon.S | 35 vcvt.f32.s32 q8, q2 39 vmul.f32 q10, q8, q0 44 vcvt.f32.s32 q8, q2 66 vdup.32 q8, d20[0] 69 vmul.f32 q0, q0, q8 71 vmul.f32 q1, q1, q8 84 vmul.f32 q0, q0, q8 85 vmul.f32 q1, q1, q8
|
H A D | h264idct_neon.S | 32 vshr.s16 q8, q1, #1 47 vshr.s16 q8, q1, #1 190 vadd.i16 q0, q8, q12 194 vsub.i16 q1, q8, q12 201 vtrn.32 q8, q10 211 vadd.i16 q0, q8, q12 213 vsub.i16 q1, q8, q12 219 vadd.i16 q8, q0, q3 246 vsub.i16 q15, q8, q3 247 vadd.i16 q8, q [all...] |
H A D | vp3dsp_neon.S | 121 vadd.s16 q1, q8, q12 122 vsub.s16 q8, q8, q12 140 vadd.s16 q8, q8, q4 // F = (ip[0] - ip[4]) * C4 222 vadd.s16 q8, q8, q0 230 vsub.s16 q3, q8, q10 // Fd = F - Ad 231 vadd.s16 q10, q8, q10 // Add = F + Ad 234 vadd.s16 q8, q [all...] |
H A D | vc1dsp_neon.S | 65 @ vadd.i16 q0, q8, q10 71 @ vhadd.s16 q0, q8, q10 85 @ Trashes: r12 q8 q9 q10 q11 q12 q13 96 vmov.i16 q8, #\add @ t1 will accumulate here 102 vmla.i16 q8, q12, d0[0] @ t1 = 17 * (temp1) + 4 108 vhadd.s16 q0, q8, q10 @ dst[0] = (t1 + t3) >> 1 109 vhsub.s16 q3, q8, q10 @ dst[3] = (t1 - t3) >> 1 161 vshl.i16 q8, q1, #4 @ t1|t2 = 16 * (src[8]|src[40]) 169 vadd.i16 q8, q8, q [all...] |
H A D | sbrdsp_neon.S | 38 vld1.32 {q8}, [lr,:128]! 39 vadd.f32 q0, q0, q8 61 vmov.i32 q8, #1<<31 63 veor q1, q1, q8 67 veor q3, q3, q8 70 veor q1, q1, q8 73 veor q3, q3, q8 86 vmov.i32 q8, #1<<31 93 veor q0, q0, q8 99 veor q9, q9, q8 [all...] |
H A D | rv34dsp_neon.S | 43 vsub.s32 q8, q10, q13 @ z0 - z3 46 vtrn.32 q3, q8 55 vshl.s32 q11, q8, #4 57 vshl.s32 q15, q8, #3 59 vadd.s32 q11, q11, q8 61 vsub.s32 q8, q15, q8 63 vadd.s32 q9, q9, q8 81 vtrn.32 q8, q9 89 vaddw.u8 q0, q8, d2 [all...] |
H A D | vp9mc_16bpp_neon.S | 38 vld1.16 {q8, q9}, [r2]! 39 vst1.16 {q8, q9}, [r0, :128]! 54 vld1.16 {q8, q9}, [r2]! 57 vrhadd.u16 q0, q0, q8 64 vld1.16 {q8, q9}, [r0, :128]! 66 vrhadd.u16 q8, q8, q12 71 vst1.16 {q8, q9}, [lr, :128]! 86 vld1.16 {q8, q9}, [r2]! 89 vrhadd.u16 q0, q0, q8 [all...] |
H A D | hevcdsp_qpel_neon.S | 89 vmull.s16 q8, d11, d17 // 5 * f1 101 vsub.s32 q14, q8 // g1 - a1 - 5 * f1 109 // output q8 111 vmov.i32 q8, #11 116 vmul.s32 q11, q8 // 11 * (c0 + f0) 117 vmul.s32 q12, q8 // 11 * (c1 + f1) 118 vmov.i32 q8, #40 120 vmul.s32 q9, q8 // 40 * (d0 + e0) 121 vmul.s32 q10, q8 // 40 * (d1 + e1) 122 vaddl.s16 q8, d [all...] |
/third_party/ffmpeg/libavresample/arm/ |
H A D | audio_convert_neon.S | 27 vcvt.s32.f32 q8, q0, #31 34 vqrshrn.s32 d4, q8, #16 43 vld1.32 {q8}, [r1,:128]! 44 vcvt.s32.f32 q8, q8, #31 52 vqrshrn.s32 d4, q8, #16 62 3: vqrshrn.s32 d4, q8, #16 72 vcvt.s32.f32 q8, q0, #31 85 vsri.32 q10, q8, #16 96 vld1.32 {q8}, [r [all...] |
H A D | resample_neon.S | 130 veor.f32 q8, q8 156 vmlal.s32 q8, d0, d4[0] 159 vmlal.s32 q8, d0, d4 162 vmlal.s32 q8, d0, d4 166 vmull.s32 q8, d0, d4 170 veor.s64 q8, q8 174 vadd.s64 q8, q8, q [all...] |
/third_party/ffmpeg/libswresample/arm/ |
H A D | audio_convert_neon.S | 28 vcvt.s32.f32 q8, q0, #31 35 vqrshrn.s32 d4, q8, #16 44 vld1.32 {q8}, [r1,:128]! 45 vcvt.s32.f32 q8, q8, #31 53 vqrshrn.s32 d4, q8, #16 63 3: vqrshrn.s32 d4, q8, #16 74 vcvt.s32.f32 q8, q0, #31 87 vsri.32 q10, q8, #16 98 vld1.32 {q8}, [r [all...] |
/third_party/node/deps/openssl/openssl/crypto/aes/asm/ |
H A D | aesv8-armx.pl | 426 ### q8-q9 preloaded round keys except last 7 keys for big size 427 ### q5, q6, q8-q9 preloaded round keys except last 7 keys for only 16 byte 456 vld1.32 {q8-q9},[$key],#32 // load key schedule... 462 aese $dat0,q8 464 vld1.32 {q8},[$key],#16 // load key schedule... 472 aese $dat0,q8 496 vld1.32 {q8-q9},[$key],#32 // load key schedule... 502 aesd $dat0,q8 504 vld1.32 {q8},[$key],#16 // load key schedule... 512 aesd $dat0,q8 [all...] |
/third_party/openssl/crypto/aes/asm/ |
H A D | aesv8-armx.pl | 442 ### q8-q9 preloaded round keys except last 7 keys for big size 443 ### q5, q6, q8-q9 preloaded round keys except last 7 keys for only 16 byte 472 vld1.32 {q8-q9},[$key],#32 // load key schedule... 478 aese $dat0,q8 480 vld1.32 {q8},[$key],#16 // load key schedule... 488 aese $dat0,q8 512 vld1.32 {q8-q9},[$key],#32 // load key schedule... 518 aesd $dat0,q8 520 vld1.32 {q8},[$key],#16 // load key schedule... 528 aesd $dat0,q8 [all...] |
/third_party/ffmpeg/libavutil/arm/ |
H A D | float_dsp_neon.S | 29 vmul.f32 q8, q0, q2 44 vmul.f32 q8, q0, q2 55 vmul.f32 q8, q0, q2 75 vld1.32 {q8}, [acc,:128]! 78 1: vmla.f32 q8, q0, q15 85 vst1.32 {q8}, [r0,:128]! 91 vld1.32 {q8}, [acc,:128]! 103 vld1.32 {q8}, [acc,:128]! 104 vmla.f32 q8, q0, q15 105 vst1.32 {q8}, [r [all...] |
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/modes/ |
H A D | ghashv8-armx.S | 25 vext.8 q8,q10,q11,#8 @ t0=0xc2....01 28 vand q10,q10,q8 31 vand q8,q8,q9 33 veor q12,q3,q8 @ twisted H 37 vext.8 q8,q12,q12,#8 @ Karatsuba pre-processing 39 veor q8,q8,q12 41 INST(0xa0,0x2e,0xa0,0xf2) @ pmull q1,q8,q8 [all...] |
H A D | ghash-armv4.S | 358 vmov.i8 q8,#0xe1 366 vand q8,q8,q9 368 veor q3,q3,q8 @ twisted H 416 vmull.p8 q8, d16, d6 @ F = A1*B 424 veor q8, q8, q0 @ L = E + F 440 vext.8 q8, q8, q8, #1 [all...] |
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/modes/ |
H A D | ghashv8-armx.S | 25 vext.8 q8,q10,q11,#8 @ t0=0xc2....01 28 vand q10,q10,q8 31 vand q8,q8,q9 33 veor q12,q3,q8 @ twisted H 37 vext.8 q8,q12,q12,#8 @ Karatsuba pre-processing 39 veor q8,q8,q12 41 INST(0xa0,0x2e,0xa0,0xf2) @ pmull q1,q8,q8 [all...] |
H A D | ghash-armv4.S | 358 vmov.i8 q8,#0xe1 366 vand q8,q8,q9 368 veor q3,q3,q8 @ twisted H 416 vmull.p8 q8, d16, d6 @ F = A1*B 424 veor q8, q8, q0 @ L = E + F 440 vext.8 q8, q8, q8, #1 [all...] |