/third_party/ffmpeg/libavcodec/arm/ |
H A D | sbcdsp_neon.S | 41 vld1.16 {d16, d17}, [r0, :64]! 46 vmull.s16 q1, d17, d21 50 vld1.16 {d16, d17}, [r0, :64]! 56 vmlal.s16 q1, d17, d21 60 vld1.16 {d16, d17}, [r0, :64]! 65 vmlal.s16 q1, d17, d21 72 vld1.16 {d16, d17, d18, d19}, [r2, :128]! 78 vmull.s16 q11, d17, d0 94 vld1.16 {d16, d17}, [r0, :64]! 99 vmull.s16 q13, d17, d2 [all...] |
H A D | mdct_neon.S | 39 vld2.32 {d16-d17},[r7,:128],r12 @ d16=x,n1 d17=x,n0 41 vrev64.32 d17, d17 43 vmul.f32 d6, d17, d2 49 vmul.f32 d5, d17, d3 57 vld2.32 {d16-d17},[r7,:128],r12 59 vrev64.32 d17, d17 61 vmul.f32 d6, d17, d [all...] |
H A D | h264cmc_neon.S | 83 vrshrn.u16 d17, q9, #6 88 vshrn.u16 d17, q9, #6 96 vst1.8 {d17}, [r0,:64], r2 120 vrshrn.u16 d17, q9, #6 125 vshrn.u16 d17, q9, #6 135 vst1.8 {d17}, [r0,:64], r2 153 vrshrn.u16 d17, q9, #6 158 vshrn.u16 d17, q9, #6 166 vst1.8 {d17}, [r0,:64], r2 180 vrshrn.u16 d17, q [all...] |
H A D | ac3dsp_neon.S | 142 vld1.32 {d17}, [r2]! 143 vadd.s32 d18, d16, d17 144 vsub.s32 d19, d16, d17 146 vmlal.s32 q1, d17, d17 164 vld1.32 {d17}, [r2]! 165 vadd.f32 d18, d16, d17 166 vsub.f32 d19, d16, d17 168 vmla.f32 d1, d17, d17 [all...] |
H A D | hevcdsp_sao_neon.S | 42 vshr.u8 d17, d16, #3 // index = [src>>3] 43 vshll.u8 q9, d17, #1 // lowIndex = 2*index 68 vshr.u8 d17, d16, #3 // src>>3 69 vshll.u8 q9, d17, #1 // lowIndex = 2*index 116 vld1.8 {d17}, [r10], r3 // src[x + a_stride] 118 vcgt.u8 d8, d16, d17 120 vclt.u8 d8, d16, d17 149 vld1.32 {d17[0]}, [r10], r3 // src[x + a_stride] 151 vcgt.u8 d8, d16, d17 153 vclt.u8 d8, d16, d17 [all...] |
H A D | int_neon.S | 29 1: vld1.16 {d16-d17}, [r0]! 33 vmlal.s16 q1, d17, d21 41 vpadd.s32 d17, d2, d3 44 vpadd.s32 d0, d16, d17
|
H A D | lossless_audiodsp_neon.S | 33 1: vld1.16 {d16-d17}, [r0,:128]! 42 vmlal.s16 q1, d17, d19 53 vpadd.s32 d17, d2, d3 56 vpadd.s32 d0, d16, d17
|
H A D | vp9itxfm_16bpp_neon.S | 409 \txfm1\()4_\bpp q2, q3, q8, q9, d4, d5, d6, d7, d16, d17, d18, d19 417 \txfm2\()4_\bpp q2, q3, q8, q9, d4, d5, d6, d7, d16, d17, d18, d19 469 dmbutterfly0 d16, d17, d24, d25, q8, q12, q2, q4, d4, d5, d8, d9, q3, q2, q5, q4 @ q8 = t0a, q12 = t1a 494 dmbutterfly_l q4, q5, q2, q3, d30, d31, d16, d17, d0[1], d0[0] @ q4,q5 = t1a, q2,q3 = t0a 505 dbutterfly_n d16, d17, d12, d13, q6, q7, q10, q13, q8, q15, q6, q7 @ q8 = t3, q6 = t7 593 transpose32_q_2x_4x4 q8, q9, q10, q11, q12, q13, q14, q15, d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31 843 butterfly d25, d29, d29, d17 @ d25 = t15a, d29 = t12a 851 butterfly d17, d30, d19, d23 @ d17 = out[1], d30 = out[14] 867 mbutterfly d17, d3 [all...] |
H A D | hevcdsp_qpel_neon.S | 27 vmov d16, d17 28 vmov d17, d18 50 vext.8 d17, d22, d23, #2 62 vld1.8 {d17}, [r2], r3 79 vmov.i16 d17, #10 83 vmull.s16 q11, d4, d17 // 10 * c0 84 vmull.s16 q12, d5, d17 // 10 * c1 85 vmov.i16 d17, #5 88 vmull.s16 q15, d10, d17 // 5 * f0 89 vmull.s16 q8, d11, d17 // [all...] |
H A D | idctdsp_neon.S | 50 vld1.16 {d16-d17}, [r0,:128]! 54 vld1.16 {d16-d17}, [r0,:128]! 90 vld1.8 {d17}, [r1,:64], r2 94 vaddw.u8 q1, q1, d17 109 vld1.8 {d17}, [r1,:64], r2 111 vaddw.u8 q1, q1, d17
|
H A D | rdft_neon.S | 65 vmov.i32 d17, #1<<31 67 vtrn.32 d16, d17 69 vrev64.32 d16, d16 @ d16=1,0 d17=0,1 86 veor d6, d20, d17 @ ev.re,-ev.im 95 veor d24, d22, d17 @ ev.re,-ev.im 124 veor d6, d20, d17 @ ev.re,-ev.im 131 veor d23, d23, d17
|
H A D | fft_neon.S | 37 vsub.f32 d7, d16, d17 @ r3-r2,i2-i3 61 vadd.f32 d4, d16, d17 @ r4+r5,i4+i5 64 vsub.f32 d17, d16, d17 @ r4-r5,i4-i5 69 vmul.f32 d26, d17, d28 @ -a2r*w,a2i*w 74 vmul.f32 d24, d17, d31 @ a2r*w,a2i*w 92 vsub.f32 d17, d1, d5 110 vadd.f32 d4, d16, d17 111 vsub.f32 d5, d16, d17 123 vuzp.32 d16, d17 [all...] |
H A D | h264qpel_neon.S | 154 vld1.8 {d16,d17}, [r1], r2 156 lowpass_8 d0, d1, d16, d17, d0, d16 191 vld1.8 {d16,d17}, [r1], r2 195 lowpass_8 d0, d1, d16, d17, d0, d1 357 vld1.8 {d17}, [r0,:64], r3 360 vrhadd.u8 d1, d1, d17 361 vld1.8 {d17}, [r0,:64], r3 364 vrhadd.u8 d3, d3, d17 365 vld1.8 {d17}, [r0,:64], r3 368 vrhadd.u8 d5, d5, d17 [all...] |
H A D | vp3dsp_neon.S | 36 vsubl.u8 q3, d18, d17 53 vaddw.u8 q2, q0, d17 63 vld1.64 {d17}, [r0,:64], r1 79 vld1.32 {d17[]}, [r0], r1 83 vld1.32 {d17[1]}, [r0], r1 88 vtrn.8 d16, d17 91 vtrn.16 d17, d19 132 vmull.s16 q7, d17, xC4S4 255 vswp d17, d24
|
H A D | vp9lpf_16bpp_neon.S | 283 vabd.u16 d2, d17, d23 @ abs(p6 - p0) 456 @ This writes all outputs into d2-d17 (skipping d6 and d16). 461 vadd.u16 d0, d0, d17 462 vadd.u16 d8, d17, d18 465 vadd.u16 d8, d16, d17 481 vbif d2, d17, d7 514 vadd.u16 d12, d17, d24 561 vrshr.u16 d17, d0, #4 562 vbif d17, d30, d7 732 transpose16_q_8x8 q8, q9, q10, q11, q12, q13, q14, q15, d16, d17, d1 [all...] |
H A D | g722dsp_neon.S | 27 vld1.s16 {d16,d17,d18}, [r3,:64]! /* load qmf_coeffs */ 29 vmlal.s16 q0, d3, d17
|
/third_party/vixl/test/aarch32/ |
H A D | test-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-a32.cc | 111 {{F32, d17, d8, d6}, false, al, "F32 d17 d8 d6", "F32_d17_d8_d6"}, 113 {{F32, d17, d6, d28}, false, al, "F32 d17 d6 d28", "F32_d17_d6_d28"}, 116 {{F32, d30, d17, d15}, false, al, "F32 d30 d17 d15", "F32_d30_d17_d15"}, 118 {{F32, d17, d4, d0}, false, al, "F32 d17 d4 d0", "F32_d17_d4_d0"}, 127 {{F32, d6, d17, d17}, fals [all...] |
H A D | test-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-t32.cc | 111 {{F32, d17, d8, d6}, false, al, "F32 d17 d8 d6", "F32_d17_d8_d6"}, 113 {{F32, d17, d6, d28}, false, al, "F32 d17 d6 d28", "F32_d17_d6_d28"}, 116 {{F32, d30, d17, d15}, false, al, "F32 d30 d17 d15", "F32_d30_d17_d15"}, 118 {{F32, d17, d4, d0}, false, al, "F32 d17 d4 d0", "F32_d17_d4_d0"}, 127 {{F32, d6, d17, d17}, fals [all...] |
H A D | test-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-a32.cc | 97 {{{F64, d16, d17, d14}, false, al, "F64 d16 d17 d14", "F64_d16_d17_d14"}, 105 {{F32, d18, d17, d23}, false, al, "F32 d18 d17 d23", "F32_d18_d17_d23"}, 121 {{F64, d9, d17, d17}, false, al, "F64 d9 d17 d17", "F64_d9_d17_d17"}, 137 {{F64, d1, d22, d17}, false, al, "F64 d1 d22 d17", "F64_d1_d22_d1 [all...] |
H A D | test-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-t32.cc | 97 {{{F64, d16, d17, d14}, false, al, "F64 d16 d17 d14", "F64_d16_d17_d14"}, 105 {{F32, d18, d17, d23}, false, al, "F32 d18 d17 d23", "F32_d18_d17_d23"}, 121 {{F64, d9, d17, d17}, false, al, "F64 d9 d17 d17", "F64_d9_d17_d17"}, 137 {{F64, d1, d22, d17}, false, al, "F64 d1 d22 d17", "F64_d1_d22_d1 [all...] |
H A D | test-simulator-cond-dt-drt-drd-drn-drm-float-f64-a32.cc | 372 {{F64, d21, d17, d0}, 373 "F64 d21 d17 d0", 402 {{F64, d16, d17, d25}, 403 "F64 d16 d17 d25", 477 {{F64, d28, d17, d14}, 478 "F64 d28 d17 d14", 487 {{F64, d20, d12, d17}, 488 "F64 d20 d12 d17", 532 {{F64, d16, d9, d17}, 533 "F64 d16 d9 d17", [all...] |
H A D | test-simulator-cond-dt-drt-drd-drn-drm-float-f64-t32.cc | 372 {{F64, d21, d17, d0}, 373 "F64 d21 d17 d0", 402 {{F64, d16, d17, d25}, 403 "F64 d16 d17 d25", 477 {{F64, d28, d17, d14}, 478 "F64 d28 d17 d14", 487 {{F64, d20, d12, d17}, 488 "F64 d20 d12 d17", 532 {{F64, d16, d9, d17}, 533 "F64 d16 d9 d17", [all...] |
/third_party/skia/third_party/externals/libpng/arm/ |
H A D | filter_neon.S | 125 vld4.32 {d16[],d17[],d18[],d19[]},[r2,:128]! 128 vhadd.u8 d1, d0, d17 153 vext.8 d17, d20, d21, #3 156 vhadd.u8 d1, d0, d17 198 vld4.32 {d16[],d17[],d18[],d19[]},[r2,:128]! 201 paeth d1, d0, d17, d16 203 paeth d2, d1, d18, d17 229 vext.8 d17, d20, d21, #3 230 paeth d1, d0, d17, d20 235 paeth d2, d1, d18, d17 [all...] |
/third_party/ffmpeg/libavresample/arm/ |
H A D | resample_neon.S | 123 vmla.f32 d17, d1, d5 127 vmul.f32 d17, d1, d5 133 vpadd.f32 d16, d16, d17 175 vadd.s64 d16, d16, d17 215 vpadd.s32 d16, d16, d17 347 vpadd.f32 d16, d16, d17
|
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/modes/ |
H A D | ghash-armv4.S | 360 vshl.i64 d17,#57 429 veor d16, d16, d17 @ t0 = (L) (P0 + P1) << 8 430 vand d17, d17, d29 436 veor d16, d16, d17 467 veor d16, d16, d17 @ t0 = (L) (P0 + P1) << 8 468 vand d17, d17, d29 474 veor d16, d16, d17 504 veor d16, d16, d17 [all...] |