Lines Matching defs:vec4

760     __m128i vec0, vec1, vec2, vec3, vec4, vec5;
791 vec4, vec5);
794 DUP2_ARG2(__lsx_vdp2_h_bu_b, vec4, filt0, vec5, filt0, dst4, dst5);
800 vec4, vec5);
803 DUP2_ARG3(__lsx_vdp2add_h_bu_b, dst4, vec4, filt1, dst5, vec5, filt1,
810 vec4, vec5);
813 DUP2_ARG3(__lsx_vdp2add_h_bu_b, dst4, vec4, filt2, dst5, vec5, filt2,
820 vec4, vec5);
823 DUP2_ARG3(__lsx_vdp2add_h_bu_b, dst4, vec4, filt3, dst5, vec5, filt3,
909 __m128i vec0, vec1, vec2, vec3, vec4, vec5;
931 vec4, vec5);
934 DUP2_ARG2(__lsx_vdp2_h_bu_b, vec4, filt0, vec5, filt0, dst4, dst5);
938 vec4, vec5);
941 DUP2_ARG3(__lsx_vdp2add_h_bu_b, dst4, vec4, filt1, dst5, vec5, filt1,
946 vec4, vec5);
949 DUP2_ARG3(__lsx_vdp2add_h_bu_b, dst4, vec4, filt2, dst5, vec5, filt2,
954 vec4, vec5);
957 DUP2_ARG3(__lsx_vdp2add_h_bu_b, dst4, vec4, filt3, dst5, vec5, filt3,
1039 __m128i vec0, vec1, vec2, vec3, vec4, vec5;
1080 vec4, vec5);
1081 DUP2_ARG2(__lsx_vdp2_h_bu_b, vec4, filt0, vec5, filt0, dst4, dst5);
1083 vec4, vec5);
1084 DUP2_ARG3(__lsx_vdp2add_h_bu_b, dst4, vec4, filt1, dst5, vec5, filt1,
1087 vec4, vec5);
1088 DUP2_ARG3(__lsx_vdp2add_h_bu_b, dst4, vec4, filt2, dst5, vec5, filt2,
1091 vec4, vec5);
1092 DUP2_ARG3(__lsx_vdp2add_h_bu_b, dst4, vec4, filt3, dst5, vec5, filt3,
1670 __m128i vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7;
1702 mask2, src4, src1, mask3, vec4, vec5, vec6, vec7);
1711 dst41 = __lsx_vdp2_h_bu_b(vec4, filt0);
1739 mask2, src10, src8, mask3, vec4, vec5, vec6, vec7);
1745 dst108 = __lsx_vdp2_h_bu_b(vec4, filt0);
1808 __m128i vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7;
1846 src1, mask2, src1, src1, mask3, vec4, vec5, vec6, vec7);
1855 dst1 = __lsx_vdp2_h_bu_b(vec4, filt0);
1872 src5, mask2, src5, src5, mask3, vec4, vec5, vec6, vec7);
1879 dst5 = __lsx_vdp2_h_bu_b(vec4, filt0);
1953 __m128i vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7;
1994 mask2, src1, src1, mask3, vec4, vec5, vec6, vec7);
2003 dst1 = __lsx_vdp2_h_bu_b(vec4, filt0);
2020 mask2, src5, src5, mask3, vec4, vec5, vec6, vec7);
2027 dst5 = __lsx_vdp2_h_bu_b(vec4, filt0);
2090 mask6, src4, src1, mask7, vec4, vec5, vec6, vec7);
2099 dst41 = __lsx_vdp2_h_bu_b(vec4, filt0);
2128 src8, mask6, src10, src8, mask7, vec4, vec5, vec6, vec7);
2133 dst108 = __lsx_vdp2_h_bu_b(vec4, filt0);
2547 __m128i vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7, vec8, vec9;
2569 DUP2_ARG3(__lsx_vshuf_b, src2, src2, mask0, src2, src2, mask1, vec4, vec5);
2573 DUP4_ARG2(__lsx_vdp2_h_bu_b, vec0, filt0, vec2, filt0, vec4, filt0,
2611 __m128i vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7;
2641 vec4, vec5);
2646 dst2 = __lsx_vdp2_h_bu_b(vec4, filt0);
2657 vec4, vec5);
2660 DUP4_ARG2(__lsx_vdp2_h_bu_b, vec0, filt0, vec2, filt0, vec4, filt0,
2713 __m128i vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7, vec8, vec9;
2742 mask0, src3, src3, mask1, vec4, vec5, vec6, vec7);
2750 DUP4_ARG2(__lsx_vdp2_h_bu_b, vec0, filt0, vec2, filt0, vec4, filt0, vec6,
2830 __m128i vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7;
2859 vec4, vec5);
2864 dst2 = __lsx_vdp2_h_bu_b(vec4, filt0);
2882 vec4, vec5);
2886 DUP4_ARG2(__lsx_vdp2_h_bu_b, vec0, filt0, vec2, filt0, vec4, filt0,
2976 __m128i vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7;
3006 DUP2_ARG3(__lsx_vshuf_b, src2, src2, mask0, src2, src2, mask1, vec4, vec5);
3009 dst2 = __lsx_vdp2_h_bu_b(vec4, filt0);
3029 vec4, vec5);
3033 DUP4_ARG2(__lsx_vdp2_h_bu_b, vec0, filt0, vec2, filt0, vec4, filt0,
3105 vec4, vec5);
3109 DUP4_ARG2(__lsx_vdp2_h_bu_b, vec0, filt0, vec2, filt0, vec4, filt0,