Home
last modified time | relevance | path

Searched refs:q2 (Results 1 - 25 of 189) sorted by relevance

12345678

/third_party/node/deps/v8/src/base/
H A Ddivision-by-constant.cc28 T q2 = min / ad; // Init. q2 = 2**p/|d|. in SignedDivisionByConstant()
29 T r2 = min - q2 * ad; // Init. r2 = rem(2**p, |d|). in SignedDivisionByConstant()
39 q2 = 2 * q2; // Update q2 = 2**p/|d|. in SignedDivisionByConstant()
42 q2 = q2 + 1; in SignedDivisionByConstant()
47 T mul = q2 + 1; in SignedDivisionByConstant()
66 T q2 in UnsignedDivisionByConstant() local
[all...]
/third_party/ffmpeg/libavcodec/arm/
H A Dhevcdsp_deblock_neon.S43 vmovl.u8 q2, d4
47 vsub.i16 q2, q11
49 vqmovun.s16 d4, q2
120 vmov q4, q2
121 vshl.s16 q2, #2
123 vrhadd.s16 q2, q4
133 vcgt.s16 q6, q2, q7
136 vmov q2, q5
137 vtrn.s16 q5, q2
138 vshr.u64 q2, #3
[all...]
H A Daudiodsp_neon.S29 vld1.f32 {q2},[r1,:128]!
30 vmin.f32 q10, q2, q1
37 vld1.f32 {q2},[r1,:128]!
38 vmin.f32 q10, q2, q1
54 vld1.32 {q2-q3}, [r1,:128]!
55 vmin.s32 q2, q2, q1
57 vmax.s32 q2, q2, q0
59 vst1.32 {q2
[all...]
H A Dh264dsp_neon.S58 vabd.u8 q5, q2, q0 @ abs(q2 - q0)
70 vhadd.u8 q14, q2, q14
73 vqadd.u8 q2, q1, q12
76 vmin.u8 q14, q2, q14
77 vmovl.u8 q2, d0
80 vsubw.u8 q2, q2, d16
82 vshl.i16 q2, q2, #
[all...]
H A Dvp3dsp_neon.S37 vsubl.u8 q2, d16, d19
39 vadd.i16 q2, q2, q3
40 vadd.i16 q0, q1, q2
47 vqsub.u16 q2, q15, q1
48 vqsub.u16 q3, q2, q1
49 vsub.i16 q1, q2, q3
53 vaddw.u8 q2, q0, d17
55 vqmovun.s16 d0, q2
127 vmull.s16 q2, d1
[all...]
H A Dfmtconvert_neon.S34 vld1.32 {q2},[r1,:128]!
35 vcvt.f32.s32 q8, q2
43 vld1.32 {q2},[r1,:128]!
44 vcvt.f32.s32 q8, q2
61 vld1.32 {q2-q3}, [r2,:128]!
67 vcvt.f32.s32 q2, q2
72 vmul.f32 q2, q2, q9
75 vst1.32 {q2
[all...]
H A Daacpsdsp_neon.S28 vld1.32 {q2}, [r1,:128]!
29 vmul.f32 q2, q2, q2
36 vld1.32 {q2}, [r1,:128]!
39 vmul.f32 q2, q2, q2
63 vst1.32 {q2,q3}, [r0,:128]!
72 vst1.32 {q2,q
[all...]
H A Dhpeldsp_neon.S30 vld1.8 {q2}, [r1], r2
42 vrhadd.u8 q2, q2, q10
49 vst1.64 {q2}, [r0,:128], r2
63 vext.8 q3, q2, q3, #1
64 avg q2, q2, q3
69 vrhadd.u8 q2, q2, q3
73 vst1.8 {q2}, [r
[all...]
H A Dvp9mc_16bpp_neon.S36 vld1.16 {q2, q3}, [r2]!
37 vst1.16 {q2, q3}, [r0, :128]!
58 vld1.16 {q2, q3}, [r0, :128]!
61 vrhadd.u16 q2, q2, q10
65 vst1.16 {q2, q3}, [lr, :128]!
90 vld1.16 {q2, q3}, [r0, :128], r1
92 vrhadd.u16 q2, q2, q10
95 vst1.16 {q2, q
[all...]
H A Dvorbisdsp_neon.S36 vand q2, q12, q8
38 vadd.f32 q12, q11, q2
47 vand q2, q1, q8
49 vadd.f32 q1, q0, q2
60 vand q2, q12, q8
62 vadd.f32 q12, q11, q2
76 vand q2, q1, q8
78 vadd.f32 q1, q0, q2
H A Dsbrdsp_neon.S34 vld1.32 {q2}, [r2,:128]!
35 vadd.f32 q0, q0, q2
64 vld2.32 {q2,q3}, [r0,:128]!
69 vst2.32 {q2,q3}, [r1,:128]!
71 vld2.32 {q2,q3}, [r0,:128]!
75 vst2.32 {q2,q3}, [r1,:128]!
98 vmov q10, q2
133 vld1.32 {q2}, [r2,:128], r3
138 vrev64.32 q2, q2
[all...]
H A Dac3dsp_neon.S25 vmov.i16 q2, #0
31 vorr q2, q2, q3
34 vorr q0, q0, q2
86 vld1.32 {q2-q3}, [r1,:128]!
88 vcvt.s32.f32 q2, q2, #24
91 vst1.32 {q2-q3}, [r0,:128]!
121 vld1.16 {q2}, [r2,:128]!
123 vrev64.16 q3, q2
[all...]
H A Drv34dsp_neon.S42 vadd.s32 q2, q11, q12 @ z1 + z2
45 vtrn.32 q1, q2
52 vshl.s32 q12, q2, #3
53 vshl.s32 q9, q2, #4
56 vadd.s32 q9, q9, q2
58 vsub.s32 q12, q12, q2
64 vadd.s32 q2, q13, q12 @ z1 + z2
76 vrshrn.s32 d17, q2, #10 @ (z1 + z2) >> 10
103 vshl.s32 q11, q2, #1
107 vadd.s32 q11, q11, q2
[all...]
H A Dh264idct_neon.S36 vadd.i16 q0, q2, q3
37 vsub.i16 q1, q2, q3
55 vadd.i16 q0, q2, q3
56 vsub.i16 q1, q2, q3
84 vaddw.u8 q2, q1, d0
88 vqmovun.s16 d0, q2
187 qa .req q2
189 vshr.s16 q2, q10, #1
196 vsub.i16 q2, q2, q1
[all...]
H A Dh264pred_neon.S124 vsubl.u8 q2, d2, d0
128 vmul.s16 q2, q2, q0
135 vaddw.s16 q2, q3, d4
136 vrshrn.s32 d4, q2, #6
152 vdup.16 q2, d4[0]
154 vshl.i16 q2, q2, #3
156 vadd.i16 q3, q3, q2
160 vadd.i16 q1, q1, q2
[all...]
H A Dvc1dsp_neon.S83 @ Input columns: q0 q1 q2 q3
84 @ Output columns: q0 q1 q2 q3
88 vadd.i16 q12, q0, q2 @ temp1 = src[0] + src[2]
90 vsub.i16 q13, q0, q2 @ temp2 = src[0] - src[2]
111 vhadd.s16 q2, q9, q11 @ dst[2] = (t2 + t4) >> 1
117 vshr.s16 q2, q2, #(\rshift - 1) @ dst[2] >>= (rshift - 1)
144 vshl.i16 q15, q2, #4 @ t3|t4 = 16 * (src[16]|src[48])
145 vswp d4, d5 @ q2 = src[48]|src[16]
151 vmla.i16 q15, q2, d
[all...]
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/aes/
H A Dbsaes-armv7.S104 veor q12, q2, q9
138 vshr.u64 q10, q2, #1
148 veor q2, q2, q10
166 veor q11, q11, q2
171 veor q2, q2, q11
176 vshr.u64 q11, q2, #4
186 veor q2, q2, q1
[all...]
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/aes/
H A Dbsaes-armv7.S104 veor q12, q2, q9
138 vshr.u64 q10, q2, #1
148 veor q2, q2, q10
166 veor q11, q11, q2
171 veor q2, q2, q11
176 vshr.u64 q11, q2, #4
186 veor q2, q2, q1
[all...]
/third_party/skia/third_party/externals/freetype/src/base/
H A Dftbbox.c268 FT_Pos q2, in cubic_peak()
282 /* It is called with either q2 or q3 positive, which is necessary */ in cubic_peak()
286 FT_ABS( q2 ) | in cubic_peak()
297 q2 *= 1 << shift; in cubic_peak()
304 q2 >>= -shift; in cubic_peak()
311 while ( q2 > 0 || q3 > 0 ) in cubic_peak()
314 if ( q1 + q2 > q3 + q4 ) /* first half */ in cubic_peak()
317 q3 = q3 + q2; in cubic_peak()
318 q2 = q2 in cubic_peak()
267 cubic_peak( FT_Pos q1, FT_Pos q2, FT_Pos q3, FT_Pos q4 ) cubic_peak() argument
[all...]
/third_party/ffmpeg/libavutil/arm/
H A Dfloat_dsp_neon.S29 vmul.f32 q8, q0, q2
37 vmul.f32 q10, q0, q2
44 vmul.f32 q8, q0, q2
55 vmul.f32 q8, q0, q2
79 vld1.32 {q2}, [r1,:128]!
84 vmla.f32 q10, q2, q15
122 vld1.32 {q2},[r1,:128]!
125 vmul.f32 q2, q2, q8
132 vst1.32 {q2},[r
[all...]
/third_party/ffmpeg/libavcodec/loongarch/
H A Dvp9_lpf_lsx.c238 __m128i p3, p2, p1, p0, q3, q2, q1, q0, p1_out, p0_out, q0_out, q1_out; in ff_loop_filter_v_4_8_lsx() local
243 DUP2_ARG2(__lsx_vldx, dst, stride, dst, stride2, q1, q2); in ff_loop_filter_v_4_8_lsx()
250 LPF_MASK_HEV(p3, p2, p1, p0, q0, q1, q2, q3, limit, b_limit, thresh, in ff_loop_filter_v_4_8_lsx()
272 __m128i p3, p2, p1, p0, q3, q2, q1, q0; in ff_loop_filter_v_44_16_lsx() local
277 DUP2_ARG2(__lsx_vldx, dst, stride, dst, stride2, q1, q2); in ff_loop_filter_v_44_16_lsx()
292 LPF_MASK_HEV(p3, p2, p1, p0, q0, q1, q2, q3, limit0, b_limit0, thresh0, in ff_loop_filter_v_44_16_lsx()
311 __m128i p3, p2, p1, p0, q3, q2, q1, q0; in ff_loop_filter_v_8_8_lsx() local
321 DUP2_ARG2(__lsx_vldx, dst, stride, dst, stride2, q1, q2); in ff_loop_filter_v_8_8_lsx()
328 LPF_MASK_HEV(p3, p2, p1, p0, q0, q1, q2, q3, limit, b_limit, thresh, in ff_loop_filter_v_8_8_lsx()
330 VP9_FLAT4(p3, p2, p0, q0, q2, q in ff_loop_filter_v_8_8_lsx()
382 __m128i p3, p2, p1, p0, q3, q2, q1, q0; ff_loop_filter_v_88_16_lsx() local
473 __m128i p3, p2, p1, p0, q3, q2, q1, q0; ff_loop_filter_v_84_16_lsx() local
555 __m128i p3, p2, p1, p0, q3, q2, q1, q0; ff_loop_filter_v_48_16_lsx() local
638 __m128i p3, p2, p1, p0, q3, q2, q1, q0; vp9_hz_lpf_t4_and_t8_16w() local
724 __m128i p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_hz_lpf_t16_16w() local
1108 __m128i p3, p2, p1, p0, q3, q2, q1, q0, p7, p6, p5, p4, q4, q5, q6, q7; ff_loop_filter_v_16_8_lsx() local
1361 __m128i p3, p2, p1, p0, q3, q2, q1, q0; ff_loop_filter_h_4_8_lsx() local
1407 __m128i p3, p2, p1, p0, q3, q2, q1, q0; ff_loop_filter_h_44_16_lsx() local
1485 __m128i p3, p2, p1, p0, q3, q2, q1, q0; ff_loop_filter_h_8_8_lsx() local
1603 __m128i p3, p2, p1, p0, q3, q2, q1, q0; ff_loop_filter_h_88_16_lsx() local
1788 __m128i p3, p2, p1, p0, q3, q2, q1, q0; ff_loop_filter_h_84_16_lsx() local
1963 __m128i p3, p2, p1, p0, q3, q2, q1, q0; ff_loop_filter_h_48_16_lsx() local
2135 __m128i p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_transpose_16x8_to_8x16() local
2176 __m128i p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_transpose_8x16_to_16x8() local
2202 __m128i p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_transpose_16x16() local
2268 __m128i p3, p2, p1, p0, q3, q2, q1, q0; vp9_vt_lpf_t4_and_t8_8w() local
2362 __m128i p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_vt_lpf_t16_8w() local
2646 __m128i p3, p2, p1, p0, q3, q2, q1, q0; vp9_vt_lpf_t4_and_t8_16w() local
2755 __m128i p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_vt_lpf_t16_16w() local
[all...]
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/modes/
H A Dghashv8-armx.S40 INST(0xa9,0x4e,0xa9,0xf2) @ pmull2 q2,q12,q12
43 vext.8 q9,q0,q2,#8 @ Karatsuba post-processing
44 veor q10,q0,q2
55 veor q10,q10,q2
79 INST(0x87,0x4e,0xa9,0xf2) @ pmull2 q2,q12,q3 @ H.hi·Xi.hi
82 vext.8 q9,q0,q2,#8 @ Karatsuba post-processing
83 veor q10,q0,q2
94 veor q10,q10,q2
161 INST(0x87,0x4e,0xad,0xf2) @ pmull2 q2,q14,q3 @ H^2.hi·Xi.hi
166 veor q2,q
[all...]
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/modes/
H A Dghashv8-armx.S40 INST(0xa9,0x4e,0xa9,0xf2) @ pmull2 q2,q12,q12
43 vext.8 q9,q0,q2,#8 @ Karatsuba post-processing
44 veor q10,q0,q2
55 veor q10,q10,q2
79 INST(0x87,0x4e,0xa9,0xf2) @ pmull2 q2,q12,q3 @ H.hi·Xi.hi
82 vext.8 q9,q0,q2,#8 @ Karatsuba post-processing
83 veor q10,q0,q2
94 veor q10,q10,q2
161 INST(0x87,0x4e,0xad,0xf2) @ pmull2 q2,q14,q3 @ H^2.hi·Xi.hi
166 veor q2,q
[all...]
/third_party/ffmpeg/libavcodec/mips/
H A Dvp9_lpf_msa.c203 v16u8 p3, p2, p1, p0, q3, q2, q1, q0, p1_out, p0_out, q0_out, q1_out; in ff_loop_filter_v_4_8_msa() local
206 LD_UB8((src - 4 * pitch), pitch, p3, p2, p1, p0, q0, q1, q2, q3); in ff_loop_filter_v_4_8_msa()
212 LPF_MASK_HEV(p3, p2, p1, p0, q0, q1, q2, q3, limit, b_limit, thresh, in ff_loop_filter_v_4_8_msa()
231 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; in ff_loop_filter_v_44_16_msa() local
234 LD_UB8((src - 4 * pitch), pitch, p3, p2, p1, p0, q0, q1, q2, q3); in ff_loop_filter_v_44_16_msa()
248 LPF_MASK_HEV(p3, p2, p1, p0, q0, q1, q2, q3, limit0, b_limit0, thresh0, in ff_loop_filter_v_44_16_msa()
262 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; in ff_loop_filter_v_8_8_msa() local
270 LD_UB8((src - 4 * pitch), pitch, p3, p2, p1, p0, q0, q1, q2, q3); in ff_loop_filter_v_8_8_msa()
276 LPF_MASK_HEV(p3, p2, p1, p0, q0, q1, q2, q3, limit, b_limit, thresh, in ff_loop_filter_v_8_8_msa()
278 VP9_FLAT4(p3, p2, p0, q0, q2, q in ff_loop_filter_v_8_8_msa()
334 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; ff_loop_filter_v_88_16_msa() local
413 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; ff_loop_filter_v_84_16_msa() local
484 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; ff_loop_filter_v_48_16_msa() local
557 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; vp9_hz_lpf_t4_and_t8_16w() local
630 v16u8 p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_hz_lpf_t16_16w() local
982 v16u8 p3, p2, p1, p0, q3, q2, q1, q0, p7, p6, p5, p4, q4, q5, q6, q7; ff_loop_filter_v_16_8_msa() local
1204 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; ff_loop_filter_h_4_8_msa() local
1232 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; ff_loop_filter_h_44_16_msa() local
1276 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; ff_loop_filter_h_8_8_msa() local
1355 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; ff_loop_filter_h_88_16_msa() local
1468 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; ff_loop_filter_h_84_16_msa() local
1571 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; ff_loop_filter_h_48_16_msa() local
1675 v16u8 p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_transpose_16x8_to_8x16() local
1701 v16u8 p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_transpose_8x16_to_16x8() local
1717 v16u8 p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_transpose_16x16() local
1776 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; vp9_vt_lpf_t4_and_t8_8w() local
1847 v16u8 p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_vt_lpf_t16_8w() local
2097 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; vp9_vt_lpf_t4_and_t8_16w() local
2180 v16u8 p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_vt_lpf_t16_16w() local
[all...]
H A Dvp8_lpf_msa.c142 #define VP8_MBFILTER(p2, p1, p0, q0, q1, q2, mask, hev) \
157 q2_m = (v16i8) __msa_xori_b(q2, 0x80); \
247 q2 = __msa_xori_b((v16u8) q2_m, 0x80); \
301 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; in ff_vp8_v_loop_filter16_msa() local
309 LD_UB8(temp_src, pitch, p3, p2, p1, p0, q0, q1, q2, q3); in ff_vp8_v_loop_filter16_msa()
310 LPF_MASK_HEV(p3, p2, p1, p0, q0, q1, q2, q3, limit, b_limit, thresh, in ff_vp8_v_loop_filter16_msa()
312 VP8_MBFILTER(p2, p1, p0, q0, q1, q2, mask, hev); in ff_vp8_v_loop_filter16_msa()
317 ST_UB2(q1, q2, temp_src, pitch); in ff_vp8_v_loop_filter16_msa()
326 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; in ff_vp8_v_loop_filter8uv_msa() local
342 ILVR_D4_UB(q0_v, q0_u, q1_v, q1_u, q2_v, q2_u, q3_v, q3_u, q0, q1, q2, q in ff_vp8_v_loop_filter8uv_msa()
378 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; ff_vp8_h_loop_filter16_msa() local
443 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; ff_vp8_h_loop_filter8uv_msa() local
552 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; ff_vp8_v_loop_filter8uv_inner_msa() local
593 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; ff_vp8_h_loop_filter8uv_inner_msa() local
628 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; ff_vp8_v_loop_filter16_inner_msa() local
648 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; ff_vp8_h_loop_filter16_inner_msa() local
[all...]

Completed in 18 milliseconds

12345678