Lines Matching defs:vec0

36 #define AVC_CALC_DPADD_B_6PIX_2COEFF_SH(vec0, vec1, vec2, vec3, vec4, vec5,  \
43 ILVRL_B2_SB(vec5, vec0, tmp0_m, tmp1_m); \
749 v16i8 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7, vec8, vec9, vec10;
771 VSHF_B2_SB(src0, src0, src0, src1, mask0, mask3, vec0, vec3);
777 HADD_SB4_SH(vec0, vec3, vec6, vec9, res0, res1, res2, res3);
782 VSHF_B2_SB(src4, src4, src4, src5, mask0, mask3, vec0, vec3);
788 HADD_SB4_SH(vec0, vec3, vec6, vec9, res4, res5, res6, res7);
817 v16i8 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7, vec8, vec9, vec10;
839 VSHF_B2_SB(src0, src0, src0, src1, mask0, mask3, vec0, vec3);
845 HADD_SB4_SH(vec0, vec3, vec6, vec9, res0, res1, res2, res3);
850 VSHF_B2_SB(src4, src4, src4, src5, mask0, mask3, vec0, vec3);
856 HADD_SB4_SH(vec0, vec3, vec6, vec9, res4, res5, res6, res7);
884 v16i8 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7, vec8, vec9, vec10;
892 VSHF_B2_SB(src0, src0, src1, src1, mask0, mask0, vec0, vec1);
894 HADD_SB4_SH(vec0, vec1, vec2, vec3, res0, res1, res2, res3);
903 VSHF_B2_SB(src4, src4, src5, src5, mask0, mask0, vec0, vec1);
905 HADD_SB4_SH(vec0, vec1, vec2, vec3, res4, res5, res6, res7);
939 v16i8 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7, vec8, vec9, vec10;
947 VSHF_B2_SB(src0, src0, src1, src1, mask0, mask0, vec0, vec1);
949 HADD_SB4_SH(vec0, vec1, vec2, vec3, res0, res1, res2, res3);
958 VSHF_B2_SB(src4, src4, src5, src5, mask0, mask0, vec0, vec1);
960 HADD_SB4_SH(vec0, vec1, vec2, vec3, res4, res5, res6, res7);
993 v16i8 vec0, vec1, vec2, vec3, vec4, vec5;
1001 VSHF_B2_SB(src0, src1, src2, src3, mask0, mask0, vec0, vec1);
1002 HADD_SB2_SH(vec0, vec1, res0, res1);
1024 v16i8 vec0, vec1, vec2, vec3, vec4, vec5;
1032 VSHF_B2_SB(src0, src1, src2, src3, mask0, mask0, vec0, vec1);
1033 HADD_SB2_SH(vec0, vec1, res0, res1);
1056 v16i8 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7, vec8, vec9, vec10;
1076 VSHF_B2_SB(src0, src0, src1, src1, mask0, mask0, vec0, vec3);
1082 HADD_SB4_SH(vec0, vec3, vec6, vec9, res0, res1, res2, res3);
1087 VSHF_B2_SB(src4, src4, src5, src5, mask0, mask0, vec0, vec3);
1093 HADD_SB4_SH(vec0, vec3, vec6, vec9, res4, res5, res6, res7);
1102 PCKEV_B4_SB(res1, res0, res3, res2, res5, res4, res7, res6, vec0, vec1,
1104 XORI_B4_128_SB(vec0, vec1, vec2, vec3);
1105 ST_SB4(vec0, vec1, vec2, vec3, dst, stride);
1115 v16i8 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7, vec8, vec9, vec10;
1124 VSHF_B2_SB(src0, src0, src1, src1, mask0, mask0, vec0, vec1);
1126 HADD_SB4_SH(vec0, vec1, vec2, vec3, res0, res1, res2, res3);
1135 VSHF_B2_SB(src4, src4, src5, src5, mask0, mask0, vec0, vec1);
1137 HADD_SB4_SH(vec0, vec1, vec2, vec3, res4, res5, res6, res7);
1162 v16i8 vec0, vec1, vec2, vec3, vec4, vec5;
1170 VSHF_B2_SB(src0, src1, src2, src3, mask0, mask0, vec0, vec1);
1171 HADD_SB2_SH(vec0, vec1, res0, res1);
3152 v16i8 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7, vec8, vec9, vec10;
3175 VSHF_B2_SB(src0, src0, src0, src1, mask0, mask3, vec0, vec3);
3181 HADD_SB4_SH(vec0, vec3, vec6, vec9, res0, res1, res2, res3);
3186 VSHF_B2_SB(src4, src4, src4, src5, mask0, mask3, vec0, vec3);
3192 HADD_SB4_SH(vec0, vec3, vec6, vec9, res4, res5, res6, res7);
3224 v16i8 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7, vec8, vec9, vec10;
3247 VSHF_B2_SB(src0, src0, src0, src1, mask0, mask3, vec0, vec3);
3253 HADD_SB4_SH(vec0, vec3, vec6, vec9, res0, res1, res2, res3);
3258 VSHF_B2_SB(src4, src4, src4, src5, mask0, mask3, vec0, vec3);
3264 HADD_SB4_SH(vec0, vec3, vec6, vec9, res4, res5, res6, res7);
3296 v16i8 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7, vec8, vec9, vec10;
3304 VSHF_B2_SB(src0, src0, src1, src1, mask0, mask0, vec0, vec1);
3306 HADD_SB4_SH(vec0, vec1, vec2, vec3, res0, res1, res2, res3);
3315 VSHF_B2_SB(src4, src4, src5, src5, mask0, mask0, vec0, vec1);
3317 HADD_SB4_SH(vec0, vec1, vec2, vec3, res4, res5, res6, res7);
3361 v16i8 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7, vec8, vec9, vec10;
3369 VSHF_B2_SB(src0, src0, src1, src1, mask0, mask0, vec0, vec1);
3371 HADD_SB4_SH(vec0, vec1, vec2, vec3, res0, res1, res2, res3);
3380 VSHF_B2_SB(src4, src4, src5, src5, mask0, mask0, vec0, vec1);
3382 HADD_SB4_SH(vec0, vec1, vec2, vec3, res4, res5, res6, res7);
3424 v16i8 src0, src1, src2, src3, res, vec0, vec1, vec2, vec3, vec4, vec5;
3433 VSHF_B2_SB(src0, src1, src2, src3, mask0, mask0, vec0, vec1);
3434 HADD_SB2_SH(vec0, vec1, out0, out1);
3460 v16i8 src0, src1, src2, src3, res, vec0, vec1, vec2, vec3, vec4, vec5;
3469 VSHF_B2_SB(src0, src1, src2, src3, mask0, mask0, vec0, vec1);
3470 HADD_SB2_SH(vec0, vec1, out0, out1);
3497 v16i8 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7, vec8, vec9, vec10;
3518 VSHF_B2_SB(src0, src0, src1, src1, mask0, mask0, vec0, vec3);
3524 HADD_SB4_SH(vec0, vec3, vec6, vec9, res0, res1, res2, res3);
3529 VSHF_B2_SB(src4, src4, src5, src5, mask0, mask0, vec0, vec3);
3535 HADD_SB4_SH(vec0, vec3, vec6, vec9, res4, res5, res6, res7);
3544 PCKEV_B4_SB(res1, res0, res3, res2, res5, res4, res7, res6, vec0, vec1,
3546 XORI_B4_128_SB(vec0, vec1, vec2, vec3);
3547 AVER_UB2_UB(vec0, dst0, vec1, dst1, dst0, dst1);
3561 v16i8 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7, vec8, vec9, vec10;
3571 VSHF_B2_SB(src0, src0, src1, src1, mask0, mask0, vec0, vec1);
3573 HADD_SB4_SH(vec0, vec1, vec2, vec3, res0, res1, res2, res3);
3582 VSHF_B2_SB(src4, src4, src5, src5, mask0, mask0, vec0, vec1);
3584 HADD_SB4_SH(vec0, vec1, vec2, vec3, res4, res5, res6, res7);
3617 v16i8 src0, src1, src2, src3, vec0, vec1, vec2, vec3, vec4, vec5;
3626 VSHF_B2_SB(src0, src1, src2, src3, mask0, mask0, vec0, vec1);
3627 HADD_SB2_SH(vec0, vec1, res0, res1);