Lines Matching refs:vec3
613 __m128i vec0, vec1, vec2, vec3;
634 src0, mask2, src1, src0, mask3, vec0, vec1, vec2, vec3);
638 dst0 = __lsx_vdp2add_h_bu_b(dst0, vec3, filt3);
640 src2, mask2, src3, src2, mask3, vec0, vec1, vec2, vec3);
644 dst1 = __lsx_vdp2add_h_bu_b(dst1, vec3, filt3);
646 src4, mask2, src5, src4, mask3, vec0, vec1, vec2, vec3);
650 dst2 = __lsx_vdp2add_h_bu_b(dst2, vec3, filt3);
652 src6, mask2, src7, src6, mask3, vec0, vec1, vec2, vec3);
656 dst3 = __lsx_vdp2add_h_bu_b(dst3, vec3, filt3);
673 src0, mask2, src1, src0, mask3, vec0, vec1, vec2, vec3);
677 dst0 = __lsx_vdp2add_h_bu_b(dst0, vec3, filt3);
699 __m128i vec0, vec1, vec2, vec3;
717 src0, mask2, src0, src0, mask3, vec0, vec1, vec2, vec3);
721 dst0 = __lsx_vdp2add_h_bu_b(dst0, vec3, filt3);
723 src1, mask2, src1, src1, mask3, vec0, vec1, vec2, vec3);
727 dst1 = __lsx_vdp2add_h_bu_b(dst1, vec3, filt3);
729 src2, mask2, src2, src2, mask3, vec0, vec1, vec2, vec3);
733 dst2 = __lsx_vdp2add_h_bu_b(dst2, vec3, filt3);
735 src3, mask2, src3, src3, mask3, vec0, vec1, vec2, vec3);
739 dst3 = __lsx_vdp2add_h_bu_b(dst3, vec3, filt3);
760 __m128i vec0, vec1, vec2, vec3, vec4, vec5;
789 vec2, vec3);
793 vec3, filt0, dst0, dst1, dst2, dst3);
798 vec2, vec3);
802 dst2, vec2, filt1, dst3, vec3, filt1, dst0, dst1, dst2, dst3);
808 vec2, vec3);
812 dst2, vec2, filt2, dst3, vec3, filt2, dst0, dst1, dst2, dst3);
818 vec2, vec3);
822 dst2, vec2, filt3, dst3, vec3, filt3, dst0, dst1, dst2, dst3);
849 __m128i vec0, vec1, vec2, vec3;
870 vec2, vec3);
872 vec3, filt0, dst0, dst1, dst2, dst3);
876 vec2, vec3);
878 dst2, vec2, filt1, dst3, vec3, filt1, dst0, dst1, dst2, dst3);
882 vec2, vec3);
884 dst2, vec2, filt2, dst3, vec3, filt2, dst0, dst1, dst2, dst3);
888 vec2, vec3);
890 dst2, vec2, filt3, dst3, vec3, filt3, dst0, dst1, dst2, dst3);
909 __m128i vec0, vec1, vec2, vec3, vec4, vec5;
929 src1, mask0, src2, src2, mask0, vec0, vec1, vec2, vec3);
933 vec3, filt0, dst0, dst1, dst2, dst3);
936 src1, mask1, src2, src2, mask1, vec0, vec1, vec2, vec3);
940 dst2, vec2, filt1, dst3, vec3, filt1, dst0, dst1, dst2, dst3);
944 src1, mask2, src2, src2, mask2, vec0, vec1, vec2, vec3);
948 dst2, vec2, filt2, dst3, vec3, filt2, dst0, dst1, dst2, dst3);
952 src1, mask3, src2, src2, mask3, vec0, vec1, vec2, vec3);
956 dst2, vec2, filt3, dst3, vec3, filt3, dst0, dst1, dst2, dst3);
979 __m128i vec0, vec1, vec2, vec3;
998 src0, mask2, src0, src0, mask3, vec0, vec1, vec2, vec3);
1002 dst0 = __lsx_vdp2add_h_bu_b(dst0, vec3, filt3);
1005 src0, mask6, src1, src0, mask7, vec0, vec1, vec2, vec3);
1009 dst1 = __lsx_vdp2add_h_bu_b(dst1, vec3, filt3);
1011 mask2, src1, src1, mask3, vec0, vec1, vec2, vec3);
1015 dst2 = __lsx_vdp2add_h_bu_b(dst2, vec3, filt3);
1017 mask2, src2, src2, mask3, vec0, vec1, vec2, vec3);
1021 dst3 = __lsx_vdp2add_h_bu_b(dst3, vec3, filt3);
1039 __m128i vec0, vec1, vec2, vec3, vec4, vec5;
1059 mask0, src2, src1, mask4, vec0, vec1, vec2, vec3);
1061 vec3, filt0, dst0, dst1, dst2, dst3);
1063 src1, mask1, src2, src1, mask5, vec0, vec1, vec2, vec3);
1065 dst2, vec2, filt1, dst3, vec3, filt1, dst0, dst1, dst2, dst3);
1067 src1, mask2, src2, src1, mask6, vec0, vec1, vec2, vec3);
1069 dst2, vec2, filt2, dst3, vec3, filt2, dst0, dst1, dst2, dst3);
1071 src1, mask3, src2, src1, mask7, vec0, vec1, vec2, vec3);
1073 dst2, vec2, filt3, dst3, vec3, filt3, dst0, dst1, dst2, dst3);
1108 __m128i vec0, vec1, vec2, vec3;
1128 src0, mask2, src0, src0, mask3, vec0, vec1, vec2, vec3);
1132 dst0 = __lsx_vdp2add_h_bu_b(dst0, vec3, filt3);
1136 src0, mask6, src1, src0, mask7, vec0, vec1, vec2, vec3);
1140 dst1 = __lsx_vdp2add_h_bu_b(dst1, vec3, filt3);
1144 src1, mask2, src1, src1, mask3, vec0, vec1, vec2, vec3);
1148 dst2 = __lsx_vdp2add_h_bu_b(dst2, vec3, filt3);
1152 src1, mask6, src2, src1, mask7, vec0, vec1, vec2, vec3);
1156 dst3 = __lsx_vdp2add_h_bu_b(dst3, vec3, filt3);
1160 src2, mask2, src2, src2, mask3, vec0, vec1, vec2, vec3);
1164 dst4 = __lsx_vdp2add_h_bu_b(dst4, vec3, filt3);
1168 src2, mask6, src3, src2, mask7, vec0, vec1, vec2, vec3);
1172 dst5 = __lsx_vdp2add_h_bu_b(dst5, vec3, filt3);
1176 src3, mask2, src3, src3, mask3, vec0, vec1, vec2, vec3);
1180 dst6 = __lsx_vdp2add_h_bu_b(dst6, vec3, filt3);
1184 src4, mask2, src4, src4, mask3, vec0, vec1, vec2, vec3);
1188 dst7 = __lsx_vdp2add_h_bu_b(dst7, vec3, filt3);
1670 __m128i vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7;
1700 mask2, src3, src0, mask3, vec0, vec1, vec2, vec3);
1710 dst30 = __lsx_vdp2add_h_bu_b(dst30, vec3, filt3);
1737 mask2, src9, src7, mask3, vec0, vec1, vec2, vec3);
1744 dst97 = __lsx_vdp2add_h_bu_b(dst97, vec3, filt3);
1808 __m128i vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7;
1844 src0, mask2, src0, src0, mask3, vec0, vec1, vec2, vec3);
1854 dst0 = __lsx_vdp2add_h_bu_b(dst0, vec3, filt3);
1870 src4, mask2, src4, src4, mask3, vec0, vec1, vec2, vec3);
1878 dst4 = __lsx_vdp2add_h_bu_b(dst4, vec3, filt3);
1893 src7, mask2, src7, src7, mask3, vec0, vec1, vec2, vec3);
1897 dst7 = __lsx_vdp2add_h_bu_b(dst7, vec3, filt3);
1953 __m128i vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7;
1992 mask2, src0, src0, mask3, vec0, vec1, vec2, vec3);
2002 dst0 = __lsx_vdp2add_h_bu_b(dst0, vec3, filt3);
2018 mask2, src4, src4, mask3, vec0, vec1, vec2, vec3);
2026 dst4 = __lsx_vdp2add_h_bu_b(dst4, vec3, filt3);
2041 src7, mask2, src7, src7, mask3, vec0, vec1, vec2, vec3);
2045 dst7 = __lsx_vdp2add_h_bu_b(dst7, vec3, filt3);
2088 mask6, src3, src0, mask7, vec0, vec1, vec2, vec3);
2098 dst30 = __lsx_vdp2add_h_bu_b(dst30, vec3, filt3);
2126 src7, mask6, src9, src7, mask7, vec0, vec1, vec2, vec3);
2132 dst97 = __lsx_vdp2add_h_bu_b(dst97, vec3, filt3);
2235 __m128i vec0, vec1, vec2, vec3;
2251 vec2, vec3);
2253 vec3, filt0, dst0, dst1, dst2, dst3);
2257 vec2, vec3);
2259 dst2, vec2, filt1, dst3, vec3, filt1, dst0, dst1, dst2, dst3);
2547 __m128i vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7, vec8, vec9;
2568 DUP2_ARG3(__lsx_vshuf_b, src1, src1, mask0, src1, src1, mask1, vec2, vec3);
2575 DUP4_ARG3(__lsx_vdp2add_h_bu_b, dst0, vec1, filt1, dst1, vec3, filt1,
2611 __m128i vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7;
2639 vec2, vec3);
2644 DUP2_ARG3(__lsx_vdp2add_h_bu_b, dst0, vec1, filt1, dst1, vec3, filt1,
2655 vec2, vec3);
2662 DUP4_ARG3(__lsx_vdp2add_h_bu_b, dst3, vec1, filt1, dst4, vec3, filt1,
2713 __m128i vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7, vec8, vec9;
2740 mask0, src1, src1, mask1, vec0, vec1, vec2, vec3);
2752 DUP4_ARG3(__lsx_vdp2add_h_bu_b, dst0, vec1, filt1, dst1, vec3, filt1,
2830 __m128i vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7;
2857 vec2, vec3);
2862 DUP2_ARG3(__lsx_vdp2add_h_bu_b, dst0, vec1, filt1, dst1, vec3, filt1,
2880 vec2, vec3);
2888 DUP4_ARG3(__lsx_vdp2add_h_bu_b, dst3, vec1, filt1, dst4, vec3,
2976 __m128i vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7;
3005 DUP2_ARG3(__lsx_vshuf_b, src1, src1, mask0, src1, src1, mask1, vec2, vec3);
3010 DUP2_ARG3(__lsx_vdp2add_h_bu_b, dst0, vec1, filt1, dst1, vec3, filt1,
3027 vec2, vec3);
3035 DUP4_ARG3(__lsx_vdp2add_h_bu_b, dst3, vec1, filt1, dst4, vec3,
3083 DUP2_ARG3(__lsx_vshuf_b, src2, src1, mask2, src2, src1, mask3, vec2, vec3);
3085 DUP2_ARG3(__lsx_vdp2add_h_bu_b, dst10, vec1, filt1, dst21, vec3, filt1,
3103 vec2, vec3);
3111 DUP4_ARG3(__lsx_vdp2add_h_bu_b, dst73, vec1, filt1, dst84, vec3,