Lines Matching refs:src
26 void ff_hevc_loop_filter_luma_h_8_lsx(uint8_t *src, ptrdiff_t stride,
33 uint8_t *p3 = src - stride_4x;
34 uint8_t *p2 = src - stride_3x;
35 uint8_t *p1 = src - stride_2x;
36 uint8_t *p0 = src - stride;
37 uint8_t *q0 = src;
38 uint8_t *q1 = src + stride;
39 uint8_t *q2 = src + stride_2x;
40 uint8_t *q3 = src + stride_3x;
189 /* pack src to 8 bit */
269 /* pack src to 8 bit */
418 /* pack src to 8 bit */
438 void ff_hevc_loop_filter_luma_v_8_lsx(uint8_t *src, ptrdiff_t stride,
445 uint8_t *p3 = src;
446 uint8_t *p2 = src + stride_3x;
447 uint8_t *p1 = src + stride_4x;
448 uint8_t *p0 = src + stride_4x + stride_3x;
497 src -= 4;
498 DUP4_ARG2(__lsx_vld, src, 0, src + stride, 0, src + stride_2x, 0,
499 src + stride_3x, 0, p3_src, p2_src, p1_src, p0_src);
500 src += stride_4x;
501 DUP4_ARG2(__lsx_vld, src, 0, src + stride, 0, src + stride_2x, 0,
502 src + stride_3x, 0, q0_src, q1_src, q2_src, q3_src);
503 src -= stride_4x;
677 src += 2;
678 __lsx_vstelm_w(dst0, src, 0, 0);
679 __lsx_vstelm_w(dst0, src + stride, 0, 1);
680 __lsx_vstelm_w(dst0, src + stride_2x, 0, 2);
681 __lsx_vstelm_w(dst0, src + stride_3x, 0, 3);
682 src += stride_4x;
683 __lsx_vstelm_w(dst1, src, 0, 0);
684 __lsx_vstelm_w(dst1, src + stride, 0, 1);
685 __lsx_vstelm_w(dst1, src + stride_2x, 0, 2);
686 __lsx_vstelm_w(dst1, src + stride_3x, 0, 3);
833 src += 1;
834 __lsx_vstelm_w(dst0, src, 0, 0);
835 __lsx_vstelm_h(dst2, src, 4, 0);
836 src += stride;
837 __lsx_vstelm_w(dst0, src, 0, 1);
838 __lsx_vstelm_h(dst2, src, 4, 2);
839 src += stride;
841 __lsx_vstelm_w(dst0, src, 0, 2);
842 __lsx_vstelm_h(dst2, src, 4, 4);
843 src += stride;
844 __lsx_vstelm_w(dst0, src, 0, 3);
845 __lsx_vstelm_h(dst2, src, 4, 6);
846 src += stride;
848 __lsx_vstelm_w(dst1, src, 0, 0);
849 __lsx_vstelm_h(dst3, src, 4, 0);
850 src += stride;
851 __lsx_vstelm_w(dst1, src, 0, 1);
852 __lsx_vstelm_h(dst3, src, 4, 2);
853 src += stride;
855 __lsx_vstelm_w(dst1, src, 0, 2);
856 __lsx_vstelm_h(dst3, src, 4, 4);
857 src += stride;
858 __lsx_vstelm_w(dst1, src, 0, 3);
859 __lsx_vstelm_h(dst3, src, 4, 6);
863 void ff_hevc_loop_filter_chroma_h_8_lsx(uint8_t *src, ptrdiff_t stride,
867 uint8_t *p1_ptr = src - (stride << 1);
868 uint8_t *p0_ptr = src - stride;
869 uint8_t *q0_ptr = src;
870 uint8_t *q1_ptr = src + stride;
917 void ff_hevc_loop_filter_chroma_v_8_lsx(uint8_t *src, ptrdiff_t stride,
943 src -= 2;
944 DUP4_ARG2(__lsx_vld, src, 0, src + stride, 0, src + stride_2x, 0,
945 src + stride_3x, 0, src0, src1, src2, src3);
946 src += stride_4x;
947 DUP4_ARG2(__lsx_vld, src, 0, src + stride, 0, src + stride_2x, 0,
948 src + stride_3x, 0, src4, src5, src6, src7);
949 src -= stride_4x;
974 src += 1;
975 __lsx_vstelm_h(temp0, src, 0, 0);
976 __lsx_vstelm_h(temp0, src + stride, 0, 1);
977 __lsx_vstelm_h(temp0, src + stride_2x, 0, 2);
978 __lsx_vstelm_h(temp0, src + stride_3x, 0, 3);
979 src += stride_4x;
980 __lsx_vstelm_h(temp0, src, 0, 4);
981 __lsx_vstelm_h(temp0, src + stride, 0, 5);
982 __lsx_vstelm_h(temp0, src + stride_2x, 0, 6);
983 __lsx_vstelm_h(temp0, src + stride_3x, 0, 7);
984 src -= stride_4x;
990 uint8_t *src,
1007 src -= 1;
1010 DUP2_ARG2(__lsx_vld, src, 0, src + src_stride, 0, src_minus10, src_minus11);
1013 src += src_stride_2x;
1033 DUP2_ARG2(__lsx_vld, src, 0, src + src_stride, 0,
1075 uint8_t *src,
1092 src -= 1;
1095 DUP2_ARG2(__lsx_vld, src, 0, src + src_stride, 0, src_minus10, src_minus11);
1098 src += src_stride_2x;
1122 DUP2_ARG2(__lsx_vld, src, 0, src + src_stride, 0,
1168 uint8_t *src,
1202 src_minus1 = src - 1;
1299 src += src_stride_4x;
1306 uint8_t *src,
1326 DUP4_ARG2(__lsx_vld, src - src_stride, 0, src, 0, src + src_stride, 0,
1327 src + src_stride_2x, 0, src_minus10, src_minus11, src10, src11);
1330 src += src_stride_2x;
1361 DUP2_ARG2(__lsx_vldx, src, src_stride, src, src_stride_2x,
1401 uint8_t *src,
1419 DUP2_ARG2(__lsx_vld, src - src_stride, 0, src, 0, src_minus10, src_minus11);
1420 DUP2_ARG2(__lsx_vldx, src, src_stride, src, src_stride_2x, src10, src11);
1423 src += src_stride_2x;
1454 DUP2_ARG2(__lsx_vldx, src, src_stride, src, src_stride_2x,
1494 uint8_t *src,
1501 uint8_t *src_orig = src;
1524 src = src_orig + v_cnt;
1527 DUP2_ARG2(__lsx_vld, src - src_stride, 0, src, 0,
1531 DUP4_ARG2(__lsx_vldx, src, src_stride, src, src_stride_2x,
1532 src, src_stride_3x, src, src_stride_4x,
1605 src += src_stride_4x;
1613 uint8_t *src,
1633 src_orig = src - 1;
1726 uint8_t *src,
1746 src_orig = src - 1;
1845 uint8_t *src,
1852 uint8_t *src_orig = src;
1880 src_orig = src - 1;
1894 src_plus13 = __lsx_vld(src + v_cnt + src_stride_4x, 1);
1986 src += src_stride_4x;
1993 uint8_t *src,
2014 src_orig = src - 1;
2108 uint8_t *src,
2129 src_orig = src - 1;
2222 uint8_t *src,
2254 src_orig = src - 1;
2360 src += src_stride_4x;
2365 void ff_hevc_sao_edge_filter_8_lsx(uint8_t *dst, uint8_t *src,
2376 src, stride_src,
2381 src += width & 0xFFFFFFF0;
2387 src, stride_src,
2390 src += 8;
2396 src, stride_src,
2404 src, stride_src,
2409 src += width & 0xFFFFFFF0;
2415 src, stride_src,
2418 src += 8;
2424 src, stride_src,
2432 src, stride_src,
2437 src += width & 0xFFFFFFF0;
2443 src, stride_src,
2446 src += 8;
2452 src, stride_src,
2460 src, stride_src,
2465 src += width & 0xFFFFFFF0;
2471 src, stride_src,
2474 src += 8;
2480 src, stride_src,