Lines Matching refs:dst1
65 __m128i dst0, dst1, dst2, dst3;
96 DUP2_ARG2(__lsx_vilvh_b, zero, src0, zero, src1, dst1, dst3);
97 DUP2_ARG2(__lsx_vslli_h, dst1, 6, dst3, 6, dst1, dst3);
98 dst0 = hevc_bi_rnd_clip(in0, dst0, in1, dst1);
99 dst1 = hevc_bi_rnd_clip(in2, dst2, in3, dst3);
105 __lsx_vstelm_w(dst1, dst, 0, 0);
106 __lsx_vstelm_w(dst1, dst + dst_stride, 0, 1);
107 __lsx_vstelm_w(dst1, dst + dst_stride_2x, 0, 2);
108 __lsx_vstelm_w(dst1, dst + dst_stride_3x, 0, 3);
149 __m128i dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7;
178 dst1, dst3, dst5, dst7);
179 DUP4_ARG2(__lsx_vslli_h, dst1, 6, dst3, 6, dst5, 6, dst7, 6, dst1, dst3,
181 out0 = hevc_bi_rnd_clip(in0, dst0, in1, dst1);
213 dst1 = __lsx_vilvh_b(zero, src0);
214 dst1 = __lsx_vslli_h(dst1, 6);
215 out0 = hevc_bi_rnd_clip(in0, dst0, in1, dst1);
245 __m128i dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7;
264 src3, dst1, dst3, dst5, dst7);
265 DUP4_ARG2(__lsx_vslli_h, dst1, 6, dst3, 6, dst5, 6, dst7, 6, dst1,
277 out0 = hevc_bi_rnd_clip(in0, dst0, in1, dst1);
299 dst1 = __lsx_vilvh_b(zero, src0);
300 dst1 = __lsx_vslli_h(dst1, 6);
301 out0 = hevc_bi_rnd_clip(in0, dst0, in1, dst1);
329 __m128i dst0, dst1, dst2, dst3, dst4, dst5;
350 dst0, dst1, dst2, dst3)
353 out0 = hevc_bi_rnd_clip(in0, dst0, in1, dst1);
480 __m128i dst0, dst1, dst2, dst3;
506 vec3, filt0, dst0, dst1, dst2, dst3);
511 DUP4_ARG3(__lsx_vdp2add_h_bu_b, dst0, vec0, filt1, dst1, vec1, filt1,
512 dst2, vec2, filt1, dst3, vec3, filt1, dst0, dst1, dst2, dst3);
517 DUP4_ARG3(__lsx_vdp2add_h_bu_b, dst0, vec0, filt2, dst1, vec1, filt2,
518 dst2, vec2, filt2, dst3, vec3, filt2, dst0, dst1, dst2, dst3);
523 DUP4_ARG3(__lsx_vdp2add_h_bu_b, dst0, vec0, filt3, dst1, vec1, filt3,
524 dst2, vec2, filt3, dst3, vec3, filt3, dst0, dst1, dst2, dst3);
526 dst0 = hevc_bi_rnd_clip(in0, dst0, in1, dst1);
527 dst1 = hevc_bi_rnd_clip(in2, dst2, in3, dst3);
529 __lsx_vstx(dst1, dst, dst_stride);
544 __m128i dst0, dst1, dst2;
566 DUP2_ARG2(__lsx_vdp2_h_bu_b, vec0, filt0, vec1, filt0, dst0, dst1);
571 DUP4_ARG3(__lsx_vdp2add_h_bu_b, dst1, vec0, filt1, dst2, vec1, filt1,
572 dst0, vec2, filt2, dst1, vec3, filt2, dst1, dst2, dst0, dst1);
576 dst1, vec2, filt3, dst2, vec3, filt3, dst2, dst0, dst1, dst2);
578 tmp0 = hevc_bi_rnd_clip(in0, dst0, in1, dst1);
882 __m128i dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7;
925 vec12, filt0, dst0, dst1, dst2, dst3);
926 DUP4_ARG3(__lsx_vdp2add_h_bu_b, dst0, vec1, filt1, dst1, vec5, filt1,
927 dst2, vec9, filt1, dst3, vec13, filt1, dst0, dst1, dst2, dst3);
928 DUP4_ARG3(__lsx_vdp2add_h_bu_b, dst0, vec2, filt2, dst1, vec6, filt2,
929 dst2, vec10, filt2, dst3, vec14, filt2, dst0, dst1, dst2, dst3);
930 DUP4_ARG3(__lsx_vdp2add_h_bu_b, dst0, vec3, filt3, dst1, vec7, filt3,
931 dst2, vec11, filt3, dst3, vec15, filt3, dst0, dst1, dst2, dst3);
960 DUP4_ARG2(__lsx_vilvl_h, dst1, dst0, dst3, dst2, dst5, dst4, dst7,
962 DUP4_ARG2(__lsx_vilvh_h, dst1, dst0, dst3, dst2, dst5, dst4, dst7,
982 dst0 = dst1;
983 dst1 = dst2;
1078 __m128i dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7;
1111 vec3, filt0, dst0, dst1, dst2, dst3);
1114 DUP4_ARG3(__lsx_vdp2add_h_bu_b, dst0, vec0, filt1, dst1, vec1, filt1,
1115 dst2, vec2, filt1, dst3, vec3, filt1, dst0, dst1, dst2, dst3);
1126 dst0 = hevc_bi_rnd_clip(in0, dst0, in1, dst1);
1127 dst1 = hevc_bi_rnd_clip(in2, dst2, in3, dst3);
1131 __lsx_vstx(dst1, dst, dst_stride);
1145 vec3, filt0, dst0, dst1, dst2, dst3);
1148 DUP4_ARG3(__lsx_vdp2add_h_bu_b, dst0, vec0, filt1, dst1, vec1, filt1,
1149 dst2, vec2, filt1, dst3, vec3, filt1, dst0, dst1, dst2, dst3);
1150 dst0 = hevc_bi_rnd_clip(in0, dst0, in1, dst1);
1151 dst1 = hevc_bi_rnd_clip(in2, dst2, in3, dst3);
1154 __lsx_vstelm_d(dst1, dst_tmp + dst_stride_2x, 0, 0);
1155 __lsx_vstelm_d(dst1, dst_tmp + dst_stride_3x, 0, 1);
1171 __m128i dst0, dst1, dst2, dst3;
1191 vec3, filt0, dst0, dst1, dst2, dst3);
1194 DUP4_ARG3(__lsx_vdp2add_h_bu_b, dst0, vec0, filt1, dst1, vec1, filt1,
1195 dst2, vec2, filt1, dst3, vec3, filt1, dst0, dst1, dst2, dst3);
1196 dst0 = hevc_bi_rnd_clip(in0, dst0, in1, dst1);
1197 dst1 = hevc_bi_rnd_clip(in2, dst2, in3, dst3);
1199 __lsx_vst(dst1, dst, 16);
1686 __m128i dst0, dst1, dst2, dst3, dst4;
1716 filt0, dst0, dst1, dst2, dst3);
1718 DUP4_ARG3(__lsx_vdp2add_h_bu_b, dst0, vec1, filt1, dst1, vec3, filt1, dst2,
1719 vec5, filt1, dst3, vec7, filt1, dst0, dst1, dst2, dst3);
1722 DUP2_ARG2(__lsx_vilvl_h, dst1, dst0, dst2, dst1, dst10_r, dst21_r);
1723 DUP2_ARG2(__lsx_vilvh_h, dst1, dst0, dst2, dst1, dst10_l, dst21_l);
1762 __m128i dst0, dst1, dst2, dst3, dst4, dst5, dst6, tmp0, tmp1, tmp2, tmp3;
1802 DUP2_ARG2(__lsx_vdp2_h_bu_b, vec0, filt0, vec2, filt0, dst0, dst1);
1804 DUP2_ARG3(__lsx_vdp2add_h_bu_b, dst0, vec1, filt1, dst1, vec3, filt1,
1805 dst0, dst1);
1808 DUP2_ARG2(__lsx_vilvl_h, dst1, dst0, dst2, dst1, dst10_r, dst21_r);
1809 DUP2_ARG2(__lsx_vilvh_h, dst1, dst0, dst2, dst1, dst10_l, dst21_l);
1885 __m128i dst0, dst1, dst2, dst3, dst4, dst5, dst6, dst7, dst8;
1931 filt0, dst0, dst1, dst2, dst3);
1935 DUP4_ARG3(__lsx_vdp2add_h_bu_b, dst0, vec1, filt1, dst1, vec3, filt1, dst2,
1936 vec5, filt1, dst3, vec7, filt1, dst0, dst1, dst2, dst3);
1941 DUP4_ARG2(__lsx_vilvl_h, dst1, dst0, dst2, dst1, dst3, dst2, dst4, dst3,
1943 DUP4_ARG2(__lsx_vilvh_h, dst1, dst0, dst2, dst1, dst3, dst2, dst4, dst3,
2020 __m128i dst0, dst1, dst2, dst3, dst4, dst5;
2055 DUP2_ARG2(__lsx_vdp2_h_bu_b, vec0, filt0, vec2, filt0, dst0, dst1);
2057 DUP2_ARG3(__lsx_vdp2add_h_bu_b, dst0, vec1, filt1, dst1, vec3, filt1,
2058 dst0, dst1);
2061 DUP2_ARG2(__lsx_vilvl_h, dst1, dst0, dst2, dst1, dst10_r, dst21_r);
2062 DUP2_ARG2(__lsx_vilvh_h, dst1, dst0, dst2, dst1, dst10_l, dst21_l);