Home
last modified time | relevance | path

Searched refs:q4 (Results 1 - 25 of 59) sorted by relevance

123

/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/aes/
H A Dbsaes-armv7.S110 veor q14, q4, q9
127 vshr.u64 q11, q4, #1
137 veor q4, q4, q11
152 vshr.u64 q11, q4, #2
162 veor q4, q4, q11
190 veor q11, q11, q4
195 veor q4, q4, q1
[all...]
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/aes/
H A Dbsaes-armv7.S110 veor q14, q4, q9
127 vshr.u64 q11, q4, #1
137 veor q4, q4, q11
152 vshr.u64 q11, q4, #2
162 veor q4, q4, q11
190 veor q11, q11, q4
195 veor q4, q4, q1
[all...]
/third_party/ffmpeg/libavcodec/arm/
H A Dhevcdsp_deblock_neon.S82 vmov q4, q7
85 vtrn.16 q7, q4
89 vshr.u64 q4, #32
95 vshl.u64 q4, #32
97 vorr q7, q4
101 vmov q4, q5
103 vtrn.32 q3, q4
105 vadd.i16 q4, q3
108 vcgt.s16 q3, q0, q4
120 vmov q4, q
[all...]
H A Dvp3dsp_neon.S111 vmov.i16 q4, #0
116 vst1.64 {q4-q5}, [r2,:128]!
118 vst1.64 {q4-q5}, [r2,:128]!
120 vst1.64 {q4-q5}, [r2,:128]!
124 vst1.64 {q4-q5}, [r2,:128]!
129 vmull.s16 q4, d2, xC4S4 // ((ip[0] + ip[4]) * C4) << 16
135 vshrn.s32 d6, q4, #16
140 vadd.s16 q8, q8, q4 // F = (ip[0] - ip[4]) * C4
145 vmull.s16 q4, d30, xC7S1 // (ip[7] * C7) << 16
151 vshrn.s32 d6, q4, #1
[all...]
H A Dvp9itxfm_16bpp_neon.S313 vmull.s32 q4, \cd1, d2[0]
315 vmlal.s32 q4, \cd5, d2[1]
317 vmlal.s32 q4, \cd7, d3[0]
331 vadd.s64 q2, q4, q6
337 vadd.s64 q4, q4, q5
341 vsub.s64 q4, q4, q6
345 vrshrn.s64 \cd7, q4, #14
372 @ iadst4_12 needs q4
[all...]
H A Dvp9mc_neon.S320 vmul.s16 q4, q12, d0[0]
322 extmla q1, q2, q3, q4, d2, d6, q8, q9, q10, q11, q12, q13, 1, \size
323 extmla q1, q2, q3, q4, d2, d6, q8, q9, q10, q11, q12, q13, 2, \size
324 extmla q1, q2, q3, q4, d2, d6, q8, q9, q10, q11, q12, q13, \idx1, \size
325 extmla q1, q2, q3, q4, d2, d6, q8, q9, q10, q11, q12, q13, 5, \size
326 extmla q1, q2, q3, q4, d2, d6, q8, q9, q10, q11, q12, q13, 6, \size
327 extmla q1, q2, q3, q4, d2, d6, q8, q9, q10, q11, q12, q13, 7, \size
328 extmulqadd q1, q2, q3, q4, d2, d6, q8, q9, q10, q11, q12, q13, \idx2, \size
335 vqrshrun.s16 d7, q4, #7
388 vpop {q4
[all...]
H A Dvp9lpf_neon.S60 vabd.u8 q4, q10, q11 @ abs(p1 - p0)
65 vmax.u8 q3, q4, q5
66 vmax.u8 q4, q6, q7
71 vmax.u8 q2, q2, q4 @ max(abs(p3 - p2), ..., abs(q2 - q3))
87 vabd.u8 q4, q13, q12 @ abs(q1 - q0)
91 vmax.u8 q3, q3, q4 @ max(abs(p1 - p0), abs(q1 - q0))
99 vcle.u8 q3, q3, q4 @ hev
208 vabd.u8 d9, d28, d24 @ abs(q4 - q0)
371 vaddl.u8 q4, d17, d18
373 vadd.s16 q0, q0, q4
[all...]
H A Dsimple_idct_neon.S121 vadd.i32 q4, q12, q10
123 vshrn.i32 d4, q4, #ROW_SHIFT
233 vqshrun.s16 d5, q4, #COL_SHIFT-16
294 vshr.s16 q4, q4, #COL_SHIFT-16
306 vaddw.u8 q4, q4, d13
310 vqmovun.s16 d5, q4
347 vshr.s16 q4, q4, #COL_SHIF
[all...]
H A Dvp8dsp_neon.S275 vabd.u8 q9, q3, q4 @ abs(P0-Q0)
285 vabd.u8 q13, q5, q4 @ abs(Q1-Q0)
299 vabd.u8 q9, q3, q4 @ abs(P0-Q0)
321 veor q4, q4, q13 @ QS0 = Q0 ^ 0x80
369 vqsub.s8 q4, q4, q11 @ QS0 = clamp(QS0-c1)
371 veor q4, q4, q13 @ Q0 = QS0 ^ 0x80
384 vqsub.s8 q4, q
[all...]
H A Dh264dsp_neon.S56 vabd.u8 q4, q10, q8 @ abs(p2 - p0)
59 vclt.u8 q4, q4, q11 @ < beta
62 vand q4, q4, q6
66 vsub.i8 q6, q12, q4
90 vbsl q4, q7, q9
162 transpose_4x4 q4, q8, q0, q5
/third_party/skia/third_party/externals/freetype/src/base/
H A Dftbbox.c270 FT_Pos q4 ) in cubic_peak()
288 FT_ABS( q4 ) ) ); in cubic_peak()
299 q4 *= 1 << shift; in cubic_peak()
306 q4 >>= -shift; in cubic_peak()
314 if ( q1 + q2 > q3 + q4 ) /* first half */ in cubic_peak()
316 q4 = q4 + q3; in cubic_peak()
319 q4 = q4 + q3; in cubic_peak()
321 q4 in cubic_peak()
[all...]
/third_party/ffmpeg/libswscale/arm/
H A Doutput.S26 vpush {q4-q7}
39 vmov.u8 q4, q2 @ initialize accumulator with dithering values (part 2)
63 vadd.s32 q4, q6 @ update val accumulator (part 2)
67 vshr.s32 q4, q4, #19 @ val>>19 (part 2)
69 vqmovun.s32 d7, q4 @ clip16(val>>19) (part 2)
75 vpop {q4-q7}
H A Dhscale.S26 vpush {q4-q7}
33 vmov.s32 q4, #0 @ val accumulator
53 vadd.s32 q4, q8 @ update val accumulator
63 vqshrn.s32 d8, q4, #7 @ shift and clip the 2x16-bit final values
67 vpop {q4-q7}
H A Dyuv2rgb_neon.S78 vst4.8 {q3, q4}, [\dst,:128]!
100 vpush {q4-q7}
125 vpush {q4-q7}
145 vpush {q4-q7}
264 vpop {q4-q7}
H A Drgb2yuv_neon_common.S53 vpush {q4-q7}
57 vpop {q4-q7}
263 alias_qw \b\()8x16, q4, \set
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/chacha/
H A Dchacha-armv4.S830 vmov q4,q0
842 vmov q4,q0
868 vadd.i32 q4,q4,q5
874 veor q7,q7,q4
910 vadd.i32 q4,q4,q5
916 veor q13,q7,q4
976 vadd.i32 q4,q4,q
[all...]
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/chacha/
H A Dchacha-armv4.S830 vmov q4,q0
842 vmov q4,q0
868 vadd.i32 q4,q4,q5
874 veor q7,q7,q4
910 vadd.i32 q4,q4,q5
916 veor q13,q7,q4
976 vadd.i32 q4,q4,q
[all...]
/third_party/ffmpeg/libavcodec/x86/
H A Dvp9lpf_16bpp.asm83 psubw m4, m0 ; q4-q0
87 ABS2 m4, m5, m2, m3 ; abs(q4-q0) | abs(q5-q0)
89 pcmpgtw m4, reg_F ; abs(q4-q0) > F
282 %define %%q4 dst12q
336 %define %%q4 rsp+(%%tspoff+12)*mmsize
383 TRANSPOSE8x8W 0, 1, 2, 3, 4, 5, 6, 7, [dst4q+strideq*2], [%%q4], 1
391 mova [%%q4], m4
397 ; FIXME investigate if we can _not_ load q0|q4-7 below if h, and adjust register
402 ; load q0|q4-7 data
405 mova m4, [%%q4]
[all...]
H A Dvp9lpf.asm744 ABSSUB_GT m7, rq4, rq0, m6, m5 ; abs(q4 - q0) <= 1
757 ABSSUB_GT m7, rq6, rq0, m6, m5 ; abs(q4 - q0) <= 1
907 ; p2 -3 -p7 -p3 +p2 +q4 . . . q4
914 ; q4 +4 -p3 -q3 +q4 +q7 . q4 . .
915 ; q5 +5 -p2 -q4 +q5 +q7 . q5 . .
955 FILTER_UPDATE m4, m5, m6, m7, [P2], %4, 8, 0, 1, 12, 4, m1, "", rq4, [Q4], 1 ; [p2] -p7 -p3 +p2 +q4
962 FILTER_UPDATE m4, m5, m6, m7, [Q4], %4, 0, 7, 12, 15, 4, m1, rq4s ; [q4]
[all...]
/third_party/ffmpeg/libavcodec/loongarch/
H A Dvp9_lpf_lsx.c724 __m128i p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; in vp9_hz_lpf_t16_16w() local
750 q4 = __lsx_vld(dst_tmp1, 0); in vp9_hz_lpf_t16_16w()
753 VP9_FLAT5(p7, p6, p5, p4, p0, q0, q4, q5, q6, q7, flat, flat2); in vp9_hz_lpf_t16_16w()
886 q4_l_in = (v8u16)__lsx_vilvl_b(zero, q4); in vp9_hz_lpf_t16_16w()
894 q4_h_in = (v8u16)__lsx_vilvh_b(zero, q4); in vp9_hz_lpf_t16_16w()
1025 /* q4 */ in vp9_hz_lpf_t16_16w()
1039 q4 = __lsx_vbitsel_v(q4, out_l, flat2); in vp9_hz_lpf_t16_16w()
1040 __lsx_vst(q4, dst, 0); in vp9_hz_lpf_t16_16w()
1108 __m128i p3, p2, p1, p0, q3, q2, q1, q0, p7, p6, p5, p4, q4, q in ff_loop_filter_v_16_8_lsx() local
2135 __m128i p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_transpose_16x8_to_8x16() local
2176 __m128i p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_transpose_8x16_to_16x8() local
2202 __m128i p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_transpose_16x16() local
2362 __m128i p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_vt_lpf_t16_8w() local
2755 __m128i p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_vt_lpf_t16_16w() local
[all...]
/third_party/ffmpeg/libavcodec/mips/
H A Dvp9_lpf_msa.c630 v16u8 p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; in vp9_hz_lpf_t16_16w() local
645 LD_UB8(src, pitch, q0, q1, q2, q3, q4, q5, q6, q7); in vp9_hz_lpf_t16_16w()
646 VP9_FLAT5(p7, p6, p5, p4, p0, q0, q4, q5, q6, q7, flat, flat2); in vp9_hz_lpf_t16_16w()
764 q4_r_in = (v8u16) __msa_ilvr_b(zero, (v16i8) q4); in vp9_hz_lpf_t16_16w()
772 q4_l_in = (v8u16) __msa_ilvl_b(zero, (v16i8) q4); in vp9_hz_lpf_t16_16w()
903 /* q4 */ in vp9_hz_lpf_t16_16w()
917 q4 = __msa_bmnz_v(q4, (v16u8) r_out, flat2); in vp9_hz_lpf_t16_16w()
918 ST_UB(q4, src); in vp9_hz_lpf_t16_16w()
982 v16u8 p3, p2, p1, p0, q3, q2, q1, q0, p7, p6, p5, p4, q4, q in ff_loop_filter_v_16_8_msa() local
1675 v16u8 p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_transpose_16x8_to_8x16() local
1701 v16u8 p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_transpose_8x16_to_16x8() local
1717 v16u8 p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_transpose_16x16() local
1847 v16u8 p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_vt_lpf_t16_8w() local
2180 v16u8 p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_vt_lpf_t16_16w() local
[all...]
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/sha/
H A Dsha1-armv4-large.S1380 vld1.8 {q4,q5},[r1]!
1382 vrev32.8 q4,q4
1385 vadd.i32 q12,q8,q4
1395 INST(0x4c,0x8c,0x3a,0xe2) @ sha1su0 q4,q5,q6
1399 INST(0x8e,0x83,0xba,0xf3) @ sha1su1 q4,q7
1403 vadd.i32 q12,q8,q4
1404 INST(0x88,0xa3,0xba,0xf3) @ sha1su1 q5,q4
1405 INST(0x48,0xcc,0x3e,0xe2) @ sha1su0 q6,q7,q4
1410 INST(0x4a,0xec,0x38,0xe2) @ sha1su0 q7,q4,q
[all...]
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/sha/
H A Dsha1-armv4-large.S1380 vld1.8 {q4,q5},[r1]!
1382 vrev32.8 q4,q4
1385 vadd.i32 q12,q8,q4
1395 INST(0x4c,0x8c,0x3a,0xe2) @ sha1su0 q4,q5,q6
1399 INST(0x8e,0x83,0xba,0xf3) @ sha1su1 q4,q7
1403 vadd.i32 q12,q8,q4
1404 INST(0x88,0xa3,0xba,0xf3) @ sha1su1 q5,q4
1405 INST(0x48,0xcc,0x3e,0xe2) @ sha1su0 q6,q7,q4
1410 INST(0x4a,0xec,0x38,0xe2) @ sha1su0 q7,q4,q
[all...]
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/poly1305/
H A Dpoly1305-armv4.S505 vshr.u64 q4,q5,#26
509 vadd.i64 q6,q6,q4 @ h0 -> h1
514 vshr.u64 q4,q6,#26
516 vadd.i64 q7,q7,q4 @ h1 -> h2
872 vshr.u64 q4,q5,#26
877 vadd.i64 q6,q6,q4 @ h0 -> h1
883 vshr.u64 q4,q6,#26
885 vadd.i64 q7,q7,q4 @ h1 -> h2
1041 vshr.u64 q4,q5,#26
1044 vadd.i64 q6,q6,q4
[all...]
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/poly1305/
H A Dpoly1305-armv4.S505 vshr.u64 q4,q5,#26
509 vadd.i64 q6,q6,q4 @ h0 -> h1
514 vshr.u64 q4,q6,#26
516 vadd.i64 q7,q7,q4 @ h1 -> h2
872 vshr.u64 q4,q5,#26
877 vadd.i64 q6,q6,q4 @ h0 -> h1
883 vshr.u64 q4,q6,#26
885 vadd.i64 q7,q7,q4 @ h1 -> h2
1041 vshr.u64 q4,q5,#26
1044 vadd.i64 q6,q6,q4
[all...]

Completed in 23 milliseconds

123