Lines Matching refs:dst_v
278 void ff_vp8_v_loop_filter8uv_lsx(uint8_t *dst_u, uint8_t *dst_v,
300 DUP4_ARG2(__lsx_vld, dst_v - stride4, 0, dst_v - stride3, 0, dst_v - stride2, 0,
301 dst_v - stride, 0, p3_v, p2_v, p1_v, p0_v);
302 DUP4_ARG2(__lsx_vld, dst_v, 0, dst_v + stride, 0, dst_v + stride2, 0,
303 dst_v + stride3, 0, q0_v, q1_v, q2_v, q3_v);
320 __lsx_vstelm_d(p2, dst_v - stride3, 0, 1);
321 __lsx_vstelm_d(p1, dst_v - stride2, 0, 1);
322 __lsx_vstelm_d(p0, dst_v - stride , 0, 1);
323 __lsx_vstelm_d(q0, dst_v, 0, 1);
325 __lsx_vstelm_d(q1, dst_v + stride, 0, 1);
326 __lsx_vstelm_d(q2, dst_v + stride2, 0, 1);
415 void ff_vp8_h_loop_filter8uv_lsx(uint8_t *dst_u, uint8_t *dst_v,
441 temp_src = dst_v - 4;
487 dst_v -= 3;
488 VP8_ST6x1_UB(tmp6, 0, tmp5, 0, dst_v, 4);
489 dst_v += stride;
490 VP8_ST6x1_UB(tmp6, 1, tmp5, 1, dst_v, 4);
491 dst_v += stride;
492 VP8_ST6x1_UB(tmp6, 2, tmp5, 2, dst_v, 4);
493 dst_v += stride;
494 VP8_ST6x1_UB(tmp6, 3, tmp5, 3, dst_v, 4);
495 dst_v += stride;
496 VP8_ST6x1_UB(tmp7, 0, tmp5, 4, dst_v, 4);
497 dst_v += stride;
498 VP8_ST6x1_UB(tmp7, 1, tmp5, 5, dst_v, 4);
499 dst_v += stride;
500 VP8_ST6x1_UB(tmp7, 2, tmp5, 6, dst_v, 4);
501 dst_v += stride;
502 VP8_ST6x1_UB(tmp7, 3, tmp5, 7, dst_v, 4);