Home
last modified time | relevance | path

Searched refs:q6 (Results 1 - 25 of 56) sorted by relevance

123

/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/aes/
H A Dbsaes-armv7.S116 veor q10, q6, q9
126 vshr.u64 q10, q6, #1
136 veor q6, q6, q10
154 veor q11, q11, q6
159 veor q6, q6, q11
178 veor q11, q11, q6
183 veor q6, q6, q1
[all...]
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/aes/
H A Dbsaes-armv7.S116 veor q10, q6, q9
126 vshr.u64 q10, q6, #1
136 veor q6, q6, q10
154 veor q11, q11, q6
159 veor q6, q6, q11
178 veor q11, q11, q6
183 veor q6, q6, q1
[all...]
/third_party/ffmpeg/libavcodec/arm/
H A Dhevcdsp_deblock_neon.S74 vadd.i16 q6, q14, q12
76 vsub.i16 q6, q13
78 vabd.s16 q6, q6, q13
83 vmov q5, q6
86 vtrn.16 q6, q5
90 vshl.u64 q6, #32
93 vshr.u64 q6, #32
96 vorr q6, q5
99 vadd.i16 q5, q7, q6
[all...]
H A Dvp9lpf_neon.S62 vabd.u8 q6, q13, q14 @ abs(q1 - q2)
66 vmax.u8 q4, q6, q7
90 vsubl.u8 q6, d21, d27 @ p1 - q1
93 vqmovn.s16 d11, q6 @ av_clip_int8p(p1 - q1)
97 vsubl.u8 q6, d24, d22 @ q0 - p0
103 vmul.s16 q6, q6, q0 @ 3 * (q0 - p0)
106 vaddw.s8 q6, q6, d10 @ 3 * (q0 - p0) [+ av_clip_int8(p1 - q1)]
109 vqmovn.s16 d12, q6
[all...]
H A Dh264dsp_neon.S44 vabd.u8 q6, q8, q0 @ abs(p0 - q0)
50 vclt.u8 q6, q6, q11 @ < alpha
55 vbic q6, q6, q7
57 vand q6, q6, q14
60 vand q6, q6, q15
62 vand q4, q4, q6
[all...]
H A Dvp3dsp_neon.S131 vmull.s16 q6, d16, xC4S4 // ((ip[0] - ip[4]) * C4) << 16
137 vshrn.s32 d8, q6, #16
147 vmull.s16 q6, d18, xC7S1 // (ip[1] * C7) << 16
153 vshrn.s32 d8, q6, #16 // ip[1] * C7
163 vmull.s16 q6, d26, xC5S3 // (ip[5] * C5) << 16
169 vshrn.s32 d8, q6, #16
180 vmull.s16 q6, d28, xC6S2 // (ip[6] * C6) << 16
186 vshrn.s32 d8, q6, #16 // ip[6] * C6
201 vmull.s16 q6, d20, xC6S2 // (ip[2] * C6) << 16
207 vshrn.s32 d8, q6, #1
[all...]
H A Dhevcdsp_sao_neon.S129 vshll.u8 q6, d9, #1 // lowIndex
130 vadd.u16 q7, q6, q2
132 vadd.u16 q10, q6 // combine lowIndex and highIndex, offset_val
162 vshll.u8 q6, d9, #1 // lowIndex
163 vadd.u16 q7, q6, q2
165 vadd.u16 q10, q6 // combine lowIndex and highIndex, offset_val
H A Dsimple_idct_neon.S57 vmull.s16 q6, d4, w7 /* q6 = W7 * col[1] */
63 vmlsl.s16 q6, d8, w5 /* q6 -= W5 * col[3] */
109 vmlal.s16 q6, d5, w3 /* q6 += W3 * col[5] */
114 vmlsl.s16 q6, d9, w1
125 vadd.i32 q8, q14, q6
129 vsub.i32 q14, q14, q6
188 vmlal.s16 q6, d
[all...]
H A Dvp9itxfm_16bpp_neon.S327 vmull.s32 q6, \cd3, d3[1]
331 vadd.s64 q2, q4, q6
333 vadd.s64 q3, q5, q6
341 vsub.s64 q4, q4, q6
495 dmbutterfly_l q8, q15, q6, q7, d22, d23, d24, d25, d2[1], d2[0] @ q8,q15 = t5a, q6,q7 = t4a
497 dbutterfly_n d22, d23, d4, d5, q2, q3, q6, q7, q11, q12, q2, q3 @ q11 = t0, q2 = t4
499 dbutterfly_n d24, d25, d6, d7, q4, q5, q8, q15, q12, q3, q6, q7 @ q12 = t1, q3 = t5
501 dmbutterfly_l q6, q7, q4, q5, d26, d27, d20, d21, d1[1], d1[0] @ q6,q
[all...]
H A Dvp9mc_neon.S219 vext.8 q6, \src5, \src6, #(2*\offset)
221 vmla_lane \dst4, q6, \offset
239 vext.8 q6, \src5, \src6, #(2*\offset)
241 vmul_lane q6, q6, \offset
257 vqadd.s16 \dst4, \dst4, q6
388 vpop {q4-q6}
410 vpush {q4-q6}
557 loadl q5, q6, q7
561 convolve q1, q2, q5, q6, q
[all...]
H A Dvp8dsp_neon.S293 vabd.u8 q9, q7, q6 @ abs(Q3-Q2)
295 vabd.u8 q11, q6, q5 @ abs(Q2-Q1)
343 veor q6, q6, q13 @ QS2 = Q2 ^ 0x80
349 @ q1-q6 -> PS2-QS2
432 vqsub.s8 q6, q6, q8 @ QS2 = clamp(QS2-a)
442 veor q6, q6, q13 @ Q2 = QS2 ^ 0x80
462 vld1.8 {q6}, [r
[all...]
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/poly1305/
H A Dpoly1305-armv4.S425 vmull.u32 q6,d1,d0[1]
431 vmlal.u32 q6,d0,d1[1]
437 vmlal.u32 q6,d7,d4[1]
444 vmlal.u32 q6,d5,d6[1]
450 vmlal.u32 q6,d3,d8[1]
509 vadd.i64 q6,q6,q4 @ h0 -> h1
514 vshr.u64 q4,q6,#26
515 vmovn.i64 d12,q6
788 vmull.u32 q6,d2
[all...]
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/poly1305/
H A Dpoly1305-armv4.S425 vmull.u32 q6,d1,d0[1]
431 vmlal.u32 q6,d0,d1[1]
437 vmlal.u32 q6,d7,d4[1]
444 vmlal.u32 q6,d5,d6[1]
450 vmlal.u32 q6,d3,d8[1]
509 vadd.i64 q6,q6,q4 @ h0 -> h1
514 vshr.u64 q4,q6,#26
515 vmovn.i64 d12,q6
788 vmull.u32 q6,d2
[all...]
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/chacha/
H A Dchacha-armv4.S853 vmov q6,q2
886 vadd.i32 q6,q6,q7
892 veor q13,q5,q6
934 vadd.i32 q6,q6,q7
940 veor q13,q5,q6
958 vext.8 q6,q6,q6,#
[all...]
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/chacha/
H A Dchacha-armv4.S853 vmov q6,q2
886 vadd.i32 q6,q6,q7
892 veor q13,q5,q6
934 vadd.i32 q6,q6,q7
940 veor q13,q5,q6
958 vext.8 q6,q6,q6,#
[all...]
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/bn/
H A Darmv4-mont.S227 vmull.u32 q6,d28,d0[0]
244 vmlal.u32 q6,d29,d4[0]
251 vmov q5,q6
253 vmov q6,q7
276 vmlal.u32 q6,d28,d0[0]
293 vmlal.u32 q6,d29,d4[0]
299 vmov q5,q6
301 vmov q6,q7
330 veor q6,q6,q
[all...]
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/bn/
H A Darmv4-mont.S227 vmull.u32 q6,d28,d0[0]
244 vmlal.u32 q6,d29,d4[0]
251 vmov q5,q6
253 vmov q6,q7
276 vmlal.u32 q6,d28,d0[0]
293 vmlal.u32 q6,d29,d4[0]
299 vmov q5,q6
301 vmov q6,q7
330 veor q6,q6,q
[all...]
/third_party/ffmpeg/libswscale/arm/
H A Doutput.S48 vld1.16 {q6}, [r12] @ read 8x16-bit @ src[j+1][i + {0..7}]: I,J,K,L,M,N,O,P
51 vmov.16 q8, q6 @ copy 8x16-bit @ src[j+1][i + {0..7}] for following inplace zip instruction
63 vadd.s32 q4, q6 @ update val accumulator (part 2)
/third_party/ffmpeg/libavcodec/loongarch/
H A Dvp9_lpf_lsx.c724 __m128i p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; in vp9_hz_lpf_t16_16w() local
751 DUP2_ARG2(__lsx_vldx, dst_tmp1, stride, dst_tmp1, stride2, q5, q6); in vp9_hz_lpf_t16_16w()
753 VP9_FLAT5(p7, p6, p5, p4, p0, q0, q4, q5, q6, q7, flat, flat2); in vp9_hz_lpf_t16_16w()
928 q6_l_in = (v8u16)__lsx_vilvl_b(zero, q6); in vp9_hz_lpf_t16_16w()
936 q6_h_in = (v8u16)__lsx_vilvh_b(zero, q6); in vp9_hz_lpf_t16_16w()
1061 /* q6 */ in vp9_hz_lpf_t16_16w()
1075 q6 = __lsx_vbitsel_v(q6, out_l, flat2); in vp9_hz_lpf_t16_16w()
1076 __lsx_vst(q6, dst, 0); in vp9_hz_lpf_t16_16w()
1108 __m128i p3, p2, p1, p0, q3, q2, q1, q0, p7, p6, p5, p4, q4, q5, q6, q in ff_loop_filter_v_16_8_lsx() local
2135 __m128i p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_transpose_16x8_to_8x16() local
2176 __m128i p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_transpose_8x16_to_16x8() local
2202 __m128i p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_transpose_16x16() local
2362 __m128i p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_vt_lpf_t16_8w() local
2755 __m128i p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_vt_lpf_t16_16w() local
[all...]
/third_party/ffmpeg/libavcodec/mips/
H A Dvp9_lpf_msa.c630 v16u8 p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; in vp9_hz_lpf_t16_16w() local
645 LD_UB8(src, pitch, q0, q1, q2, q3, q4, q5, q6, q7); in vp9_hz_lpf_t16_16w()
646 VP9_FLAT5(p7, p6, p5, p4, p0, q0, q4, q5, q6, q7, flat, flat2); in vp9_hz_lpf_t16_16w()
806 q6_r_in = (v8u16) __msa_ilvr_b(zero, (v16i8) q6); in vp9_hz_lpf_t16_16w()
814 q6_l_in = (v8u16) __msa_ilvl_b(zero, (v16i8) q6); in vp9_hz_lpf_t16_16w()
939 /* q6 */ in vp9_hz_lpf_t16_16w()
953 q6 = __msa_bmnz_v(q6, (v16u8) r_out, flat2); in vp9_hz_lpf_t16_16w()
954 ST_UB(q6, src); in vp9_hz_lpf_t16_16w()
982 v16u8 p3, p2, p1, p0, q3, q2, q1, q0, p7, p6, p5, p4, q4, q5, q6, q in ff_loop_filter_v_16_8_msa() local
1675 v16u8 p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_transpose_16x8_to_8x16() local
1701 v16u8 p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_transpose_8x16_to_16x8() local
1717 v16u8 p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_transpose_16x16() local
1847 v16u8 p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_vt_lpf_t16_8w() local
2180 v16u8 p7, p6, p5, p4, p3, p2, p1, p0, q0, q1, q2, q3, q4, q5, q6, q7; vp9_vt_lpf_t16_16w() local
[all...]
/third_party/ffmpeg/libavcodec/x86/
H A Dvp9lpf_16bpp.asm85 psubw m6, m0 ; q6-q0
88 ABS2 m6, m7, m2, m3 ; abs(q6-q0) | abs(q7-q0)
91 pcmpgtw m6, reg_F ; abs(q6-q0) > F
284 %define %%q6 dst12q+strideq*2
338 %define %%q6 rsp+(%%tspoff+14)*mmsize
394 mova [%%q6], m6
407 mova m6, [%%q6]
588 PRELOAD 9, %%q6, Q6
599 FILTER_STEP m4, m5, F16M, 4, %%q6, reg_Q6
780 mova m5, [%%q6]
[all...]
H A Dvp9lpf.asm776 ; (m0: hev, [m1: flat8out], [m2: flat8in], m3: fm, m8..15: p5 p4 p1 p0 q0 q1 q6 q7)
909 ; p0 -1 -p7 -p1 +p0 +q6 . . . q6
916 ; q6 +6 -p1 -q5 +q6 +q7 . q6 . .
957 FILTER_UPDATE m4, m5, m6, m7, [P0], %4, 8, 2, 3, 14, 4, m1, "", rq6, [Q6], 1 ; [p0] -p7 -p1 +p0 +q6
964 FILTER_UPDATE m4, m5, m6, m7, [Q6], %4, 2, 13, 14, 15, 4, m1, rq6s ; [q6] -p1 -q5 +q6 +q7
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/sha/
H A Dsha1-armv4-large.S1381 vld1.8 {q6,q7},[r1]!
1386 vrev32.8 q6,q6
1394 vadd.i32 q12,q8,q6
1395 INST(0x4c,0x8c,0x3a,0xe2) @ sha1su0 q4,q5,q6
1400 INST(0x4e,0xac,0x3c,0xe2) @ sha1su0 q5,q6,q7
1405 INST(0x48,0xcc,0x3e,0xe2) @ sha1su0 q6,q7,q4
1409 INST(0x8a,0xc3,0xba,0xf3) @ sha1su1 q6,q5
1413 vadd.i32 q12,q9,q6
1414 INST(0x8c,0xe3,0xba,0xf3) @ sha1su1 q7,q6
[all...]
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/sha/
H A Dsha1-armv4-large.S1381 vld1.8 {q6,q7},[r1]!
1386 vrev32.8 q6,q6
1394 vadd.i32 q12,q8,q6
1395 INST(0x4c,0x8c,0x3a,0xe2) @ sha1su0 q4,q5,q6
1400 INST(0x4e,0xac,0x3c,0xe2) @ sha1su0 q5,q6,q7
1405 INST(0x48,0xcc,0x3e,0xe2) @ sha1su0 q6,q7,q4
1409 INST(0x8a,0xc3,0xba,0xf3) @ sha1su1 q6,q5
1413 vadd.i32 q12,q9,q6
1414 INST(0x8c,0xe3,0xba,0xf3) @ sha1su1 q7,q6
[all...]
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/modes/
H A Dghashv8-armx.S148 INST(0x8f,0xce,0xa9,0xf2) @ pmull2 q6,q12,q7
166 veor q2,q2,q6
197 INST(0x8f,0xce,0xa9,0xf2) @ pmull2 q6,q12,q7

Completed in 22 milliseconds

123