/third_party/node/deps/v8/src/base/ |
H A D | division-by-constant.cc | 28 T q2 = min / ad; // Init. q2 = 2**p/|d|. in SignedDivisionByConstant() 29 T r2 = min - q2 * ad; // Init. r2 = rem(2**p, |d|). in SignedDivisionByConstant() 39 q2 = 2 * q2; // Update q2 = 2**p/|d|. in SignedDivisionByConstant() 42 q2 = q2 + 1; in SignedDivisionByConstant() 47 T mul = q2 + 1; in SignedDivisionByConstant() 66 T q2 in UnsignedDivisionByConstant() local [all...] |
/third_party/ffmpeg/libavcodec/arm/ |
H A D | hevcdsp_deblock_neon.S | 43 vmovl.u8 q2, d4 47 vsub.i16 q2, q11 49 vqmovun.s16 d4, q2 120 vmov q4, q2 121 vshl.s16 q2, #2 123 vrhadd.s16 q2, q4 133 vcgt.s16 q6, q2, q7 136 vmov q2, q5 137 vtrn.s16 q5, q2 138 vshr.u64 q2, #3 [all...] |
H A D | audiodsp_neon.S | 29 vld1.f32 {q2},[r1,:128]! 30 vmin.f32 q10, q2, q1 37 vld1.f32 {q2},[r1,:128]! 38 vmin.f32 q10, q2, q1 54 vld1.32 {q2-q3}, [r1,:128]! 55 vmin.s32 q2, q2, q1 57 vmax.s32 q2, q2, q0 59 vst1.32 {q2 [all...] |
H A D | h264dsp_neon.S | 58 vabd.u8 q5, q2, q0 @ abs(q2 - q0) 70 vhadd.u8 q14, q2, q14 73 vqadd.u8 q2, q1, q12 76 vmin.u8 q14, q2, q14 77 vmovl.u8 q2, d0 80 vsubw.u8 q2, q2, d16 82 vshl.i16 q2, q2, # [all...] |
H A D | vp3dsp_neon.S | 37 vsubl.u8 q2, d16, d19 39 vadd.i16 q2, q2, q3 40 vadd.i16 q0, q1, q2 47 vqsub.u16 q2, q15, q1 48 vqsub.u16 q3, q2, q1 49 vsub.i16 q1, q2, q3 53 vaddw.u8 q2, q0, d17 55 vqmovun.s16 d0, q2 127 vmull.s16 q2, d1 [all...] |
H A D | fmtconvert_neon.S | 34 vld1.32 {q2},[r1,:128]! 35 vcvt.f32.s32 q8, q2 43 vld1.32 {q2},[r1,:128]! 44 vcvt.f32.s32 q8, q2 61 vld1.32 {q2-q3}, [r2,:128]! 67 vcvt.f32.s32 q2, q2 72 vmul.f32 q2, q2, q9 75 vst1.32 {q2 [all...] |
H A D | aacpsdsp_neon.S | 28 vld1.32 {q2}, [r1,:128]! 29 vmul.f32 q2, q2, q2 36 vld1.32 {q2}, [r1,:128]! 39 vmul.f32 q2, q2, q2 63 vst1.32 {q2,q3}, [r0,:128]! 72 vst1.32 {q2,q [all...] |
H A D | hpeldsp_neon.S | 30 vld1.8 {q2}, [r1], r2 42 vrhadd.u8 q2, q2, q10 49 vst1.64 {q2}, [r0,:128], r2 63 vext.8 q3, q2, q3, #1 64 avg q2, q2, q3 69 vrhadd.u8 q2, q2, q3 73 vst1.8 {q2}, [r [all...] |
H A D | vp9mc_16bpp_neon.S | 36 vld1.16 {q2, q3}, [r2]! 37 vst1.16 {q2, q3}, [r0, :128]! 58 vld1.16 {q2, q3}, [r0, :128]! 61 vrhadd.u16 q2, q2, q10 65 vst1.16 {q2, q3}, [lr, :128]! 90 vld1.16 {q2, q3}, [r0, :128], r1 92 vrhadd.u16 q2, q2, q10 95 vst1.16 {q2, q [all...] |
H A D | vorbisdsp_neon.S | 36 vand q2, q12, q8 38 vadd.f32 q12, q11, q2 47 vand q2, q1, q8 49 vadd.f32 q1, q0, q2 60 vand q2, q12, q8 62 vadd.f32 q12, q11, q2 76 vand q2, q1, q8 78 vadd.f32 q1, q0, q2
|
H A D | sbrdsp_neon.S | 34 vld1.32 {q2}, [r2,:128]! 35 vadd.f32 q0, q0, q2 64 vld2.32 {q2,q3}, [r0,:128]! 69 vst2.32 {q2,q3}, [r1,:128]! 71 vld2.32 {q2,q3}, [r0,:128]! 75 vst2.32 {q2,q3}, [r1,:128]! 98 vmov q10, q2 133 vld1.32 {q2}, [r2,:128], r3 138 vrev64.32 q2, q2 [all...] |
H A D | ac3dsp_neon.S | 25 vmov.i16 q2, #0 31 vorr q2, q2, q3 34 vorr q0, q0, q2 86 vld1.32 {q2-q3}, [r1,:128]! 88 vcvt.s32.f32 q2, q2, #24 91 vst1.32 {q2-q3}, [r0,:128]! 121 vld1.16 {q2}, [r2,:128]! 123 vrev64.16 q3, q2 [all...] |
H A D | rv34dsp_neon.S | 42 vadd.s32 q2, q11, q12 @ z1 + z2 45 vtrn.32 q1, q2 52 vshl.s32 q12, q2, #3 53 vshl.s32 q9, q2, #4 56 vadd.s32 q9, q9, q2 58 vsub.s32 q12, q12, q2 64 vadd.s32 q2, q13, q12 @ z1 + z2 76 vrshrn.s32 d17, q2, #10 @ (z1 + z2) >> 10 103 vshl.s32 q11, q2, #1 107 vadd.s32 q11, q11, q2 [all...] |
H A D | h264idct_neon.S | 36 vadd.i16 q0, q2, q3 37 vsub.i16 q1, q2, q3 55 vadd.i16 q0, q2, q3 56 vsub.i16 q1, q2, q3 84 vaddw.u8 q2, q1, d0 88 vqmovun.s16 d0, q2 187 qa .req q2 189 vshr.s16 q2, q10, #1 196 vsub.i16 q2, q2, q1 [all...] |
H A D | h264pred_neon.S | 124 vsubl.u8 q2, d2, d0 128 vmul.s16 q2, q2, q0 135 vaddw.s16 q2, q3, d4 136 vrshrn.s32 d4, q2, #6 152 vdup.16 q2, d4[0] 154 vshl.i16 q2, q2, #3 156 vadd.i16 q3, q3, q2 160 vadd.i16 q1, q1, q2 [all...] |
H A D | vc1dsp_neon.S | 83 @ Input columns: q0 q1 q2 q3 84 @ Output columns: q0 q1 q2 q3 88 vadd.i16 q12, q0, q2 @ temp1 = src[0] + src[2] 90 vsub.i16 q13, q0, q2 @ temp2 = src[0] - src[2] 111 vhadd.s16 q2, q9, q11 @ dst[2] = (t2 + t4) >> 1 117 vshr.s16 q2, q2, #(\rshift - 1) @ dst[2] >>= (rshift - 1) 144 vshl.i16 q15, q2, #4 @ t3|t4 = 16 * (src[16]|src[48]) 145 vswp d4, d5 @ q2 = src[48]|src[16] 151 vmla.i16 q15, q2, d [all...] |
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/aes/ |
H A D | bsaes-armv7.S | 104 veor q12, q2, q9 138 vshr.u64 q10, q2, #1 148 veor q2, q2, q10 166 veor q11, q11, q2 171 veor q2, q2, q11 176 vshr.u64 q11, q2, #4 186 veor q2, q2, q1 [all...] |
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/aes/ |
H A D | bsaes-armv7.S | 104 veor q12, q2, q9 138 vshr.u64 q10, q2, #1 148 veor q2, q2, q10 166 veor q11, q11, q2 171 veor q2, q2, q11 176 vshr.u64 q11, q2, #4 186 veor q2, q2, q1 [all...] |
/third_party/skia/third_party/externals/freetype/src/base/ |
H A D | ftbbox.c | 268 FT_Pos q2, in cubic_peak() 282 /* It is called with either q2 or q3 positive, which is necessary */ in cubic_peak() 286 FT_ABS( q2 ) | in cubic_peak() 297 q2 *= 1 << shift; in cubic_peak() 304 q2 >>= -shift; in cubic_peak() 311 while ( q2 > 0 || q3 > 0 ) in cubic_peak() 314 if ( q1 + q2 > q3 + q4 ) /* first half */ in cubic_peak() 317 q3 = q3 + q2; in cubic_peak() 318 q2 = q2 in cubic_peak() 267 cubic_peak( FT_Pos q1, FT_Pos q2, FT_Pos q3, FT_Pos q4 ) cubic_peak() argument [all...] |
/third_party/ffmpeg/libavutil/arm/ |
H A D | float_dsp_neon.S | 29 vmul.f32 q8, q0, q2 37 vmul.f32 q10, q0, q2 44 vmul.f32 q8, q0, q2 55 vmul.f32 q8, q0, q2 79 vld1.32 {q2}, [r1,:128]! 84 vmla.f32 q10, q2, q15 122 vld1.32 {q2},[r1,:128]! 125 vmul.f32 q2, q2, q8 132 vst1.32 {q2},[r [all...] |
/third_party/ffmpeg/libavcodec/loongarch/ |
H A D | vp9_lpf_lsx.c | 238 __m128i p3, p2, p1, p0, q3, q2, q1, q0, p1_out, p0_out, q0_out, q1_out; in ff_loop_filter_v_4_8_lsx() local 243 DUP2_ARG2(__lsx_vldx, dst, stride, dst, stride2, q1, q2); in ff_loop_filter_v_4_8_lsx() 250 LPF_MASK_HEV(p3, p2, p1, p0, q0, q1, q2, q3, limit, b_limit, thresh, in ff_loop_filter_v_4_8_lsx() 272 __m128i p3, p2, p1, p0, q3, q2, q1, q0; in ff_loop_filter_v_44_16_lsx() local 277 DUP2_ARG2(__lsx_vldx, dst, stride, dst, stride2, q1, q2); in ff_loop_filter_v_44_16_lsx() 292 LPF_MASK_HEV(p3, p2, p1, p0, q0, q1, q2, q3, limit0, b_limit0, thresh0, in ff_loop_filter_v_44_16_lsx() 311 __m128i p3, p2, p1, p0, q3, q2, q1, q0; in ff_loop_filter_v_8_8_lsx() local 321 DUP2_ARG2(__lsx_vldx, dst, stride, dst, stride2, q1, q2); in ff_loop_filter_v_8_8_lsx() 328 LPF_MASK_HEV(p3, p2, p1, p0, q0, q1, q2, q3, limit, b_limit, thresh, in ff_loop_filter_v_8_8_lsx() 330 VP9_FLAT4(p3, p2, p0, q0, q2, q in ff_loop_filter_v_8_8_lsx() 382 __m128i p3, p2, p1, p0, q3, q2, q1, q0; ff_loop_filter_v_88_16_lsx() local 473 __m128i p3, p2, p1, p0, q3, q2, q1, q0; ff_loop_filter_v_84_16_lsx() local 555 __m128i p3, p2, p1, p0, q3, q2, q1, q0; ff_loop_filter_v_48_16_lsx() local 638 __m128i p3, p2, p1, p0, q3, q2, q1, q0; vp9_hz_lpf_t4_and_t8_16w() local 724 __m128i p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_hz_lpf_t16_16w() local 1108 __m128i p3, p2, p1, p0, q3, q2, q1, q0, p7, p6, p5, p4, q4, q5, q6, q7; ff_loop_filter_v_16_8_lsx() local 1361 __m128i p3, p2, p1, p0, q3, q2, q1, q0; ff_loop_filter_h_4_8_lsx() local 1407 __m128i p3, p2, p1, p0, q3, q2, q1, q0; ff_loop_filter_h_44_16_lsx() local 1485 __m128i p3, p2, p1, p0, q3, q2, q1, q0; ff_loop_filter_h_8_8_lsx() local 1603 __m128i p3, p2, p1, p0, q3, q2, q1, q0; ff_loop_filter_h_88_16_lsx() local 1788 __m128i p3, p2, p1, p0, q3, q2, q1, q0; ff_loop_filter_h_84_16_lsx() local 1963 __m128i p3, p2, p1, p0, q3, q2, q1, q0; ff_loop_filter_h_48_16_lsx() local 2135 __m128i p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_transpose_16x8_to_8x16() local 2176 __m128i p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_transpose_8x16_to_16x8() local 2202 __m128i p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_transpose_16x16() local 2268 __m128i p3, p2, p1, p0, q3, q2, q1, q0; vp9_vt_lpf_t4_and_t8_8w() local 2362 __m128i p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_vt_lpf_t16_8w() local 2646 __m128i p3, p2, p1, p0, q3, q2, q1, q0; vp9_vt_lpf_t4_and_t8_16w() local 2755 __m128i p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_vt_lpf_t16_16w() local [all...] |
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/modes/ |
H A D | ghashv8-armx.S | 40 INST(0xa9,0x4e,0xa9,0xf2) @ pmull2 q2,q12,q12 43 vext.8 q9,q0,q2,#8 @ Karatsuba post-processing 44 veor q10,q0,q2 55 veor q10,q10,q2 79 INST(0x87,0x4e,0xa9,0xf2) @ pmull2 q2,q12,q3 @ H.hi·Xi.hi 82 vext.8 q9,q0,q2,#8 @ Karatsuba post-processing 83 veor q10,q0,q2 94 veor q10,q10,q2 161 INST(0x87,0x4e,0xad,0xf2) @ pmull2 q2,q14,q3 @ H^2.hi·Xi.hi 166 veor q2,q [all...] |
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/modes/ |
H A D | ghashv8-armx.S | 40 INST(0xa9,0x4e,0xa9,0xf2) @ pmull2 q2,q12,q12 43 vext.8 q9,q0,q2,#8 @ Karatsuba post-processing 44 veor q10,q0,q2 55 veor q10,q10,q2 79 INST(0x87,0x4e,0xa9,0xf2) @ pmull2 q2,q12,q3 @ H.hi·Xi.hi 82 vext.8 q9,q0,q2,#8 @ Karatsuba post-processing 83 veor q10,q0,q2 94 veor q10,q10,q2 161 INST(0x87,0x4e,0xad,0xf2) @ pmull2 q2,q14,q3 @ H^2.hi·Xi.hi 166 veor q2,q [all...] |
/third_party/ffmpeg/libavcodec/mips/ |
H A D | vp9_lpf_msa.c | 203 v16u8 p3, p2, p1, p0, q3, q2, q1, q0, p1_out, p0_out, q0_out, q1_out; in ff_loop_filter_v_4_8_msa() local 206 LD_UB8((src - 4 * pitch), pitch, p3, p2, p1, p0, q0, q1, q2, q3); in ff_loop_filter_v_4_8_msa() 212 LPF_MASK_HEV(p3, p2, p1, p0, q0, q1, q2, q3, limit, b_limit, thresh, in ff_loop_filter_v_4_8_msa() 231 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; in ff_loop_filter_v_44_16_msa() local 234 LD_UB8((src - 4 * pitch), pitch, p3, p2, p1, p0, q0, q1, q2, q3); in ff_loop_filter_v_44_16_msa() 248 LPF_MASK_HEV(p3, p2, p1, p0, q0, q1, q2, q3, limit0, b_limit0, thresh0, in ff_loop_filter_v_44_16_msa() 262 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; in ff_loop_filter_v_8_8_msa() local 270 LD_UB8((src - 4 * pitch), pitch, p3, p2, p1, p0, q0, q1, q2, q3); in ff_loop_filter_v_8_8_msa() 276 LPF_MASK_HEV(p3, p2, p1, p0, q0, q1, q2, q3, limit, b_limit, thresh, in ff_loop_filter_v_8_8_msa() 278 VP9_FLAT4(p3, p2, p0, q0, q2, q in ff_loop_filter_v_8_8_msa() 334 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; ff_loop_filter_v_88_16_msa() local 413 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; ff_loop_filter_v_84_16_msa() local 484 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; ff_loop_filter_v_48_16_msa() local 557 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; vp9_hz_lpf_t4_and_t8_16w() local 630 v16u8 p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_hz_lpf_t16_16w() local 982 v16u8 p3, p2, p1, p0, q3, q2, q1, q0, p7, p6, p5, p4, q4, q5, q6, q7; ff_loop_filter_v_16_8_msa() local 1204 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; ff_loop_filter_h_4_8_msa() local 1232 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; ff_loop_filter_h_44_16_msa() local 1276 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; ff_loop_filter_h_8_8_msa() local 1355 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; ff_loop_filter_h_88_16_msa() local 1468 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; ff_loop_filter_h_84_16_msa() local 1571 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; ff_loop_filter_h_48_16_msa() local 1675 v16u8 p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_transpose_16x8_to_8x16() local 1701 v16u8 p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_transpose_8x16_to_16x8() local 1717 v16u8 p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_transpose_16x16() local 1776 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; vp9_vt_lpf_t4_and_t8_8w() local 1847 v16u8 p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_vt_lpf_t16_8w() local 2097 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; vp9_vt_lpf_t4_and_t8_16w() local 2180 v16u8 p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_vt_lpf_t16_16w() local [all...] |
H A D | vp8_lpf_msa.c | 142 #define VP8_MBFILTER(p2, p1, p0, q0, q1, q2, mask, hev) \ 157 q2_m = (v16i8) __msa_xori_b(q2, 0x80); \ 247 q2 = __msa_xori_b((v16u8) q2_m, 0x80); \ 301 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; in ff_vp8_v_loop_filter16_msa() local 309 LD_UB8(temp_src, pitch, p3, p2, p1, p0, q0, q1, q2, q3); in ff_vp8_v_loop_filter16_msa() 310 LPF_MASK_HEV(p3, p2, p1, p0, q0, q1, q2, q3, limit, b_limit, thresh, in ff_vp8_v_loop_filter16_msa() 312 VP8_MBFILTER(p2, p1, p0, q0, q1, q2, mask, hev); in ff_vp8_v_loop_filter16_msa() 317 ST_UB2(q1, q2, temp_src, pitch); in ff_vp8_v_loop_filter16_msa() 326 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; in ff_vp8_v_loop_filter8uv_msa() local 342 ILVR_D4_UB(q0_v, q0_u, q1_v, q1_u, q2_v, q2_u, q3_v, q3_u, q0, q1, q2, q in ff_vp8_v_loop_filter8uv_msa() 378 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; ff_vp8_h_loop_filter16_msa() local 443 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; ff_vp8_h_loop_filter8uv_msa() local 552 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; ff_vp8_v_loop_filter8uv_inner_msa() local 593 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; ff_vp8_h_loop_filter8uv_inner_msa() local 628 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; ff_vp8_v_loop_filter16_inner_msa() local 648 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; ff_vp8_h_loop_filter16_inner_msa() local [all...] |