Lines Matching refs:q0
48 @ and q0-q7 are used as scratch registers.
49 @ p3 = q8, p0 = q11, q0 = q12, q3 = q15
61 vabd.u8 q5, q12, q13 @ abs(q0 - q1)
67 vabd.u8 q5, q11, q12 @ abs(p0 - q0)
69 vqadd.u8 q5, q5, q5 @ abs(p0 - q0) * 2
74 vqadd.u8 q5, q5, q7 @ abs(p0 - q0) * 2 + abs(p1 - q1) >> 1
75 vcle.u8 q5, q5, q0
87 vabd.u8 q4, q13, q12 @ abs(q1 - q0)
91 vmax.u8 q3, q3, q4 @ max(abs(p1 - p0), abs(q1 - q0))
97 vsubl.u8 q6, d24, d22 @ q0 - p0
98 vsubl.u8 q7, d25, d23 @ q0 - p0
100 vmov.s16 q0, #3
103 vmul.s16 q6, q6, q0 @ 3 * (q0 - p0)
104 vmul.s16 q7, q7, q0 @ 3 * (q0 - p0)
106 vaddw.s8 q6, q6, d10 @ 3 * (q0 - p0) [+ av_clip_int8(p1 - q1)]
107 vaddw.s8 q7, q7, d11 @ 3 * (q0 - p0) [+ av_clip_int8(p1 - q1)]
110 vqmovn.s16 d13, q7 @ av_clip_int8(3 * (q0 - p0) [+ av_clip_int8(p1 - q1)], BIT_DEPTH - 1) = f
111 vmov.s8 q0, #3
114 vqadd.s8 q0, q6, q0 @ FFMIN(f + 3, 127)
118 vshr.s8 q0, q0, #3 @ f2
123 vmovl.u8 q6, d24 @ q0
125 vmovl.u8 q7, d25 @ q0
126 vsubw.s8 q6, q6, d10 @ q0 - f1
127 vsubw.s8 q7, q7, d11 @ q0 - f1
128 vqmovun.s16 d12, q6 @ out q0
129 vqmovun.s16 d13, q7 @ out q0
131 vbit q11, q0, q2 @ if (fm && !flat8in)
134 vmovl.u8 q0, d20 @ p1
138 vaddw.s8 q0, q0, d10 @ p1 + f
142 vqmovun.s16 d0, q0 @ out p1
146 vbit q10, q0, q3 @ if (!hev && fm && !flat8in)
152 @ p7 = d16 .. p3 = d20, p0 = d23, q0 = d24, q3 = d27, q7 = d31
164 vabd.u8 d7, d24, d25 @ abs(q0 - q1)
170 vabd.u8 d6, d23, d24 @ abs(p0 - q0)
172 vqadd.u8 d6, d6, d6 @ abs(p0 - q0) * 2
177 vqadd.u8 d6, d6, d5 @ abs(p0 - q0) * 2 + abs(p1 - q1) >> 1
193 vabd.u8 \tmp1, d25, d24 @ abs(q1 - q0)
194 vabd.u8 \tmp2, d26, d24 @ abs(q2 - q0)
195 vabd.u8 \tmp3, d27, d24 @ abs(q3 - q0)
208 vabd.u8 d9, d28, d24 @ abs(q4 - q0)
210 vabd.u8 d10, d29, d24 @ abs(q5 - q0)
211 vabd.u8 d11, d30, d24 @ abs(q6 - q0)
212 vabd.u8 d12, d31, d24 @ abs(q7 - q0)
232 vabd.u8 d1, d25, d24 @ abs(q1 - q0)
239 vmax.u8 d5, d5, d1 @ max(abs(p1 - p0), abs(q1 - q0))
240 vsubl.u8 \tmpq2, d24, d23 @ q0 - p0
260 vmul.s16 \tmpq2, \tmpq2, \tmpq3 @ 3 * (q0 - p0)
263 vaddw.s8 \tmpq2, \tmpq2, \tmp1 @ 3 * (q0 - p0) [+ av_clip_int8(p1 - q1)]
272 vmovl.u8 q0, d23 @ p0
276 vmovl.u8 q1, d24 @ q0
277 vaddw.s8 q0, q0, \tmp4 @ p0 + f2
278 vsubw.s8 q1, q1, \tmp3 @ q0 - f1
279 vqmovun.s16 d0, q0 @ out p0
280 vqmovun.s16 d1, q1 @ out q0
285 vmovl.u8 q0, d22 @ p1
290 vaddw.s8 q0, q0, \tmp3 @ p1 + f
295 vqmovun.s16 d0, q0 @ out p1
310 vadd.u16 q0, \tmpq1, \tmpq1
311 vaddw.u8 q0, q0, d23
312 vaddw.u8 q0, q0, d24
313 vadd.u16 q0, q0, \tmpq3
316 vrshrn.u16 d2, q0, #3 @ out p2
318 vadd.u16 q0, q0, \tmpq2
321 vrshrn.u16 d3, q0, #3 @ out p1
323 vadd.u16 q0, q0, \tmpq4
327 vrshrn.u16 d4, q0, #3 @ out p0
329 vadd.u16 q0, q0, \tmpq2
333 vrshrn.u16 d5, q0, #3 @ out q0
335 vadd.u16 q0, q0, \tmpq4
337 vrshrn.u16 \tmp5, q0, #3 @ out q1
339 vadd.u16 q0, q0, \tmpq2
346 vrshrn.u16 \tmp6, q0, #3 @ out q2
368 vshll.u8 q0, d16, #3 @ 8 * d16
369 vsubw.u8 q0, q0, d16 @ 7 * d16
370 vaddw.u8 q0, q0, d17
373 vadd.s16 q0, q0, q4
376 vadd.s16 q0, q0, q5
380 vadd.s16 q0, q0, q6
381 vadd.s16 q0, q0, q7
384 vrshrn.u16 d2, q0, #4
386 vadd.s16 q0, q0, q5
391 vrshrn.u16 d3, q0, #4
393 vadd.s16 q0, q0, q7
398 vrshrn.u16 d4, q0, #4
400 vadd.s16 q0, q0, q5
405 vrshrn.u16 d5, q0, #4
407 vadd.s16 q0, q0, q7
412 vrshrn.u16 d6, q0, #4
414 vadd.s16 q0, q0, q5
419 vrshrn.u16 d8, q0, #4
421 vadd.s16 q0, q0, q7
426 vrshrn.u16 d9, q0, #4
428 vadd.s16 q0, q0, q5
432 vrshrn.u16 d10, q0, #4
434 vadd.s16 q0, q0, q7
440 vrshrn.u16 d11, q0, #4
442 vadd.s16 q0, q0, q6
448 vrshrn.u16 d12, q0, #4
450 vadd.s16 q0, q0, q7
454 vrshrn.u16 d13, q0, #4
456 vadd.s16 q0, q0, q9
461 vrshrn.u16 d14, q0, #4
463 vadd.s16 q0, q0, q10
466 vrshrn.u16 d15, q0, #4
468 vadd.s16 q0, q0, q11
470 vrshrn.u16 d17, q0, #4
497 vld1.8 {d24}, [r0, :64], r1 @ q0
565 vld1.8 {q12}, [r0, :128], r1 @ q0
652 vld1.8 {d24}, [r0, :64], r1 @ q0
734 @ Read p7-p0 using r12 and q0-q7 using r0
736 vld1.8 {d24}, [r0, :64], r1 @ q0