Lines Matching defs:vec3
36 #define AVC_CALC_DPADD_B_6PIX_2COEFF_SH(vec0, vec1, vec2, vec3, vec4, vec5, \
47 ILVRL_B2_SB(vec3, vec2, tmp0_m, tmp1_m); \
749 v16i8 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7, vec8, vec9, vec10;
771 VSHF_B2_SB(src0, src0, src0, src1, mask0, mask3, vec0, vec3);
777 HADD_SB4_SH(vec0, vec3, vec6, vec9, res0, res1, res2, res3);
782 VSHF_B2_SB(src4, src4, src4, src5, mask0, mask3, vec0, vec3);
788 HADD_SB4_SH(vec0, vec3, vec6, vec9, res4, res5, res6, res7);
817 v16i8 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7, vec8, vec9, vec10;
839 VSHF_B2_SB(src0, src0, src0, src1, mask0, mask3, vec0, vec3);
845 HADD_SB4_SH(vec0, vec3, vec6, vec9, res0, res1, res2, res3);
850 VSHF_B2_SB(src4, src4, src4, src5, mask0, mask3, vec0, vec3);
856 HADD_SB4_SH(vec0, vec3, vec6, vec9, res4, res5, res6, res7);
884 v16i8 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7, vec8, vec9, vec10;
893 VSHF_B2_SB(src2, src2, src3, src3, mask0, mask0, vec2, vec3);
894 HADD_SB4_SH(vec0, vec1, vec2, vec3, res0, res1, res2, res3);
904 VSHF_B2_SB(src6, src6, src7, src7, mask0, mask0, vec2, vec3);
905 HADD_SB4_SH(vec0, vec1, vec2, vec3, res4, res5, res6, res7);
939 v16i8 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7, vec8, vec9, vec10;
948 VSHF_B2_SB(src2, src2, src3, src3, mask0, mask0, vec2, vec3);
949 HADD_SB4_SH(vec0, vec1, vec2, vec3, res0, res1, res2, res3);
959 VSHF_B2_SB(src6, src6, src7, src7, mask0, mask0, vec2, vec3);
960 HADD_SB4_SH(vec0, vec1, vec2, vec3, res4, res5, res6, res7);
993 v16i8 vec0, vec1, vec2, vec3, vec4, vec5;
1003 VSHF_B2_SB(src0, src1, src2, src3, mask1, mask1, vec2, vec3);
1004 DPADD_SB2_SH(vec2, vec3, minus5b, minus5b, res0, res1);
1024 v16i8 vec0, vec1, vec2, vec3, vec4, vec5;
1034 VSHF_B2_SB(src0, src1, src2, src3, mask1, mask1, vec2, vec3);
1035 DPADD_SB2_SH(vec2, vec3, minus5b, minus5b, res0, res1);
1056 v16i8 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7, vec8, vec9, vec10;
1076 VSHF_B2_SB(src0, src0, src1, src1, mask0, mask0, vec0, vec3);
1082 HADD_SB4_SH(vec0, vec3, vec6, vec9, res0, res1, res2, res3);
1087 VSHF_B2_SB(src4, src4, src5, src5, mask0, mask0, vec0, vec3);
1093 HADD_SB4_SH(vec0, vec3, vec6, vec9, res4, res5, res6, res7);
1103 vec2, vec3);
1104 XORI_B4_128_SB(vec0, vec1, vec2, vec3);
1105 ST_SB4(vec0, vec1, vec2, vec3, dst, stride);
1115 v16i8 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7, vec8, vec9, vec10;
1125 VSHF_B2_SB(src2, src2, src3, src3, mask0, mask0, vec2, vec3);
1126 HADD_SB4_SH(vec0, vec1, vec2, vec3, res0, res1, res2, res3);
1136 VSHF_B2_SB(src6, src6, src7, src7, mask0, mask0, vec2, vec3);
1137 HADD_SB4_SH(vec0, vec1, vec2, vec3, res4, res5, res6, res7);
1162 v16i8 vec0, vec1, vec2, vec3, vec4, vec5;
1172 VSHF_B2_SB(src0, src1, src2, src3, mask1, mask1, vec2, vec3);
1173 DPADD_SB2_SH(vec2, vec3, minus5b, minus5b, res0, res1);
3152 v16i8 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7, vec8, vec9, vec10;
3175 VSHF_B2_SB(src0, src0, src0, src1, mask0, mask3, vec0, vec3);
3181 HADD_SB4_SH(vec0, vec3, vec6, vec9, res0, res1, res2, res3);
3186 VSHF_B2_SB(src4, src4, src4, src5, mask0, mask3, vec0, vec3);
3192 HADD_SB4_SH(vec0, vec3, vec6, vec9, res4, res5, res6, res7);
3224 v16i8 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7, vec8, vec9, vec10;
3247 VSHF_B2_SB(src0, src0, src0, src1, mask0, mask3, vec0, vec3);
3253 HADD_SB4_SH(vec0, vec3, vec6, vec9, res0, res1, res2, res3);
3258 VSHF_B2_SB(src4, src4, src4, src5, mask0, mask3, vec0, vec3);
3264 HADD_SB4_SH(vec0, vec3, vec6, vec9, res4, res5, res6, res7);
3296 v16i8 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7, vec8, vec9, vec10;
3305 VSHF_B2_SB(src2, src2, src3, src3, mask0, mask0, vec2, vec3);
3306 HADD_SB4_SH(vec0, vec1, vec2, vec3, res0, res1, res2, res3);
3316 VSHF_B2_SB(src6, src6, src7, src7, mask0, mask0, vec2, vec3);
3317 HADD_SB4_SH(vec0, vec1, vec2, vec3, res4, res5, res6, res7);
3361 v16i8 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7, vec8, vec9, vec10;
3370 VSHF_B2_SB(src2, src2, src3, src3, mask0, mask0, vec2, vec3);
3371 HADD_SB4_SH(vec0, vec1, vec2, vec3, res0, res1, res2, res3);
3381 VSHF_B2_SB(src6, src6, src7, src7, mask0, mask0, vec2, vec3);
3382 HADD_SB4_SH(vec0, vec1, vec2, vec3, res4, res5, res6, res7);
3424 v16i8 src0, src1, src2, src3, res, vec0, vec1, vec2, vec3, vec4, vec5;
3435 VSHF_B2_SB(src0, src1, src2, src3, mask1, mask1, vec2, vec3);
3436 DPADD_SB2_SH(vec2, vec3, minus5b, minus5b, out0, out1);
3460 v16i8 src0, src1, src2, src3, res, vec0, vec1, vec2, vec3, vec4, vec5;
3471 VSHF_B2_SB(src0, src1, src2, src3, mask1, mask1, vec2, vec3);
3472 DPADD_SB2_SH(vec2, vec3, minus5b, minus5b, out0, out1);
3497 v16i8 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7, vec8, vec9, vec10;
3518 VSHF_B2_SB(src0, src0, src1, src1, mask0, mask0, vec0, vec3);
3524 HADD_SB4_SH(vec0, vec3, vec6, vec9, res0, res1, res2, res3);
3529 VSHF_B2_SB(src4, src4, src5, src5, mask0, mask0, vec0, vec3);
3535 HADD_SB4_SH(vec0, vec3, vec6, vec9, res4, res5, res6, res7);
3545 vec2, vec3);
3546 XORI_B4_128_SB(vec0, vec1, vec2, vec3);
3548 AVER_UB2_UB(vec2, dst2, vec3, dst3, dst2, dst3);
3561 v16i8 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7, vec8, vec9, vec10;
3572 VSHF_B2_SB(src2, src2, src3, src3, mask0, mask0, vec2, vec3);
3573 HADD_SB4_SH(vec0, vec1, vec2, vec3, res0, res1, res2, res3);
3583 VSHF_B2_SB(src6, src6, src7, src7, mask0, mask0, vec2, vec3);
3584 HADD_SB4_SH(vec0, vec1, vec2, vec3, res4, res5, res6, res7);
3617 v16i8 src0, src1, src2, src3, vec0, vec1, vec2, vec3, vec4, vec5;
3628 VSHF_B2_SB(src0, src1, src2, src3, mask1, mask1, vec2, vec3);
3629 DPADD_SB2_SH(vec2, vec3, minus5b, minus5b, res0, res1);