Lines Matching refs:dst_u
278 void ff_vp8_v_loop_filter8uv_lsx(uint8_t *dst_u, uint8_t *dst_v,
295 DUP4_ARG2(__lsx_vld, dst_u - stride4, 0, dst_u - stride3, 0, dst_u - stride2, 0,
296 dst_u - stride, 0, p3_u, p2_u, p1_u, p0_u);
297 DUP4_ARG2(__lsx_vld, dst_u, 0, dst_u + stride, 0, dst_u + stride2, 0,
298 dst_u + stride3, 0, q0_u, q1_u, q2_u, q3_u);
312 __lsx_vstelm_d(p2, dst_u - stride3, 0, 0);
313 __lsx_vstelm_d(p1, dst_u - stride2, 0, 0);
314 __lsx_vstelm_d(p0, dst_u - stride , 0, 0);
315 __lsx_vstelm_d(q0, dst_u, 0, 0);
317 __lsx_vstelm_d(q1, dst_u + stride, 0, 0);
318 __lsx_vstelm_d(q2, dst_u + stride2, 0, 0);
415 void ff_vp8_h_loop_filter8uv_lsx(uint8_t *dst_u, uint8_t *dst_v,
434 temp_src = dst_u - 4;
470 dst_u -= 3;
471 VP8_ST6x1_UB(tmp3, 0, tmp2, 0, dst_u, 4);
472 dst_u += stride;
473 VP8_ST6x1_UB(tmp3, 1, tmp2, 1, dst_u, 4);
474 dst_u += stride;
475 VP8_ST6x1_UB(tmp3, 2, tmp2, 2, dst_u, 4);
476 dst_u += stride;
477 VP8_ST6x1_UB(tmp3, 3, tmp2, 3, dst_u, 4);
478 dst_u += stride;
479 VP8_ST6x1_UB(tmp4, 0, tmp2, 4, dst_u, 4);
480 dst_u += stride;
481 VP8_ST6x1_UB(tmp4, 1, tmp2, 5, dst_u, 4);
482 dst_u += stride;
483 VP8_ST6x1_UB(tmp4, 2, tmp2, 6, dst_u, 4);
484 dst_u += stride;
485 VP8_ST6x1_UB(tmp4, 3, tmp2, 7, dst_u, 4);