Lines Matching refs:mask1

35                                    mask0, mask1, mask2, mask3,              \
43 VSHF_B2_SB(src0, src1, src2, src3, mask1, mask1, vec2_m, vec3_m); \
52 mask0, mask1, mask2, mask3, \
66 VSHF_B2_SB(src0, src0, src1, src1, mask1, mask1, vec4_m, vec5_m); \
67 VSHF_B2_SB(src2, src2, src3, src3, mask1, mask1, vec6_m, vec7_m); \
77 mask0, mask1, filt0, filt1, \
84 VSHF_B2_SB(src0, src1, src2, src3, mask1, mask1, vec2_m, vec3_m); \
89 mask0, mask1, filt0, filt1, \
98 VSHF_B2_SB(src0, src0, src1, src1, mask1, mask1, vec0_m, vec1_m); \
99 VSHF_B2_SB(src2, src2, src3, src3, mask1, mask1, vec2_m, vec3_m); \
290 v16u8 mask0, mask1, mask2, mask3, out;
301 mask1 = mask0 + 2;
307 HORIZ_8TAP_4WID_4VECS_FILT(src0, src1, src2, src3, mask0, mask1, mask2,
321 v16u8 mask0, mask1, mask2, mask3, out;
331 mask1 = mask0 + 2;
338 HORIZ_8TAP_4WID_4VECS_FILT(src0, src1, src2, src3, mask0, mask1, mask2,
342 HORIZ_8TAP_4WID_4VECS_FILT(src0, src1, src2, src3, mask0, mask1, mask2,
356 v16u8 mask0, mask1, mask2, mask3, out;
367 mask1 = mask0 + 2;
374 HORIZ_8TAP_4WID_4VECS_FILT(src0, src1, src2, src3, mask0, mask1, mask2,
379 HORIZ_8TAP_4WID_4VECS_FILT(src0, src1, src2, src3, mask0, mask1, mask2,
392 HORIZ_8TAP_4WID_4VECS_FILT(src0, src1, src2, src3, mask0, mask1, mask2,
397 HORIZ_8TAP_4WID_4VECS_FILT(src0, src1, src2, src3, mask0, mask1, mask2,
427 v16u8 mask0, mask1, mask2, mask3, tmp0, tmp1;
438 mask1 = mask0 + 2;
455 VSHF_B2_SB(src0, src0, src1, src1, mask1, mask1, vec4_m, vec5_m);
456 VSHF_B2_SB(src2, src2, src3, src3, mask1, mask1, vec6_m, vec7_m);
478 v16u8 mask0, mask1, mask2, mask3, mask4, mask5, mask6, mask00;
494 mask1 = mask00 + 2;
519 VSHF_B2_SB(src0, src0, src1, src1, mask1, mask1, vec4, vec5);
520 VSHF_B2_SB(src2, src2, src3, src3, mask1, mask1, vec6, vec7);
557 v16u8 mask0, mask1, mask2, mask3, out;
569 mask1 = mask0 + 2;
584 HORIZ_8TAP_8WID_4VECS_FILT(src0, src1, src2, src3, mask0, mask1, mask2,
596 HORIZ_8TAP_8WID_4VECS_FILT(src4, src5, src6, src7, mask0, mask1, mask2,
616 v16u8 mask0, mask1, mask2, mask3, mask4, mask5, mask6, mask7, out;
628 mask1 = mask0 + 2;
653 VSHF_B2_SB(src0, src0, src1, src1, mask1, mask1, vec4, vec10);
654 VSHF_B2_SB(src2, src2, src3, src3, mask1, mask1, vec6, vec11);
685 v16u8 mask0, mask1, mask2, mask3, out;
697 mask1 = mask0 + 2;
716 HORIZ_8TAP_8WID_4VECS_FILT(src0, src1, src2, src3, mask0, mask1, mask2,
728 HORIZ_8TAP_8WID_4VECS_FILT(src4, src5, src6, src7, mask0, mask1, mask2,
748 v16u8 mask0, mask1, mask2, mask3, mask4, mask5, mask6, mask7, out;
758 mask1 = mask0 + 2;
780 VSHF_B3_SB(src0, src0, src1, src1, src2, src2, mask1, mask1, mask1,
803 VSHF_B3_SB(src2, src3, src3, src3, src4, src4, mask5, mask1, mask1,
832 v16u8 mask0, mask1, mask2, mask3, out;
845 mask1 = mask0 + 2;
863 VSHF_B2_SB(src0, src0, src1, src1, mask1, mask1, vec4, vec5);
864 VSHF_B2_SB(src2, src2, src3, src3, mask1, mask1, vec6, vec7);
887 VSHF_B2_SB(src4, src4, src5, src5, mask1, mask1, vec4, vec5);
888 VSHF_B2_SB(src6, src6, src7, src7, mask1, mask1, vec6, vec7);
1349 v16i8 mask1, mask2, mask3;
1368 mask1 = mask0 + 2;
1376 VSHF_B4_SB(src0, src3, mask0, mask1, mask2, mask3, vec0, vec1, vec2, vec3);
1377 VSHF_B4_SB(src1, src4, mask0, mask1, mask2, mask3, vec4, vec5, vec6, vec7);
1378 VSHF_B4_SB(src2, src5, mask0, mask1, mask2, mask3,
1380 VSHF_B4_SB(src3, src6, mask0, mask1, mask2, mask3,
1404 VSHF_B4_SB(src7, src11, mask0, mask1, mask2, mask3,
1406 VSHF_B4_SB(src8, src12, mask0, mask1, mask2, mask3,
1408 VSHF_B4_SB(src9, src13, mask0, mask1, mask2, mask3,
1410 VSHF_B4_SB(src10, src14, mask0, mask1, mask2, mask3,
1484 v16i8 mask1, mask2, mask3;
1506 mask1 = mask0 + 2;
1519 VSHF_B4_SB(src0, src0, mask0, mask1, mask2, mask3,
1521 VSHF_B4_SB(src1, src1, mask0, mask1, mask2, mask3,
1523 VSHF_B4_SB(src2, src2, mask0, mask1, mask2, mask3,
1525 VSHF_B4_SB(src3, src3, mask0, mask1, mask2, mask3,
1536 VSHF_B4_SB(src4, src4, mask0, mask1, mask2, mask3,
1538 VSHF_B4_SB(src5, src5, mask0, mask1, mask2, mask3,
1540 VSHF_B4_SB(src6, src6, mask0, mask1, mask2, mask3,
1561 VSHF_B4_SB(src7, src7, mask0, mask1, mask2, mask3,
1574 VSHF_B4_SB(src8, src8, mask0, mask1, mask2, mask3,
1633 v16i8 mask0, mask1, mask2, mask3, mask4, mask5, mask6, mask7;
1657 mask1 = mask0 + 2;
1669 VSHF_B4_SB(src0, src0, mask0, mask1, mask2, mask3, vec0, vec1, vec2, vec3);
1670 VSHF_B4_SB(src1, src1, mask0, mask1, mask2, mask3, vec4, vec5, vec6, vec7);
1671 VSHF_B4_SB(src2, src2, mask0, mask1, mask2, mask3, vec8, vec9, vec10,
1673 VSHF_B4_SB(src3, src3, mask0, mask1, mask2, mask3, vec12, vec13, vec14,
1684 VSHF_B4_SB(src4, src4, mask0, mask1, mask2, mask3, vec0, vec1, vec2, vec3);
1685 VSHF_B4_SB(src5, src5, mask0, mask1, mask2, mask3, vec4, vec5, vec6, vec7);
1686 VSHF_B4_SB(src6, src6, mask0, mask1, mask2, mask3, vec8, vec9, vec10,
1707 VSHF_B4_SB(src7, src7, mask0, mask1, mask2, mask3, vec0, vec1, vec2,
1720 VSHF_B4_SB(src8, src8, mask0, mask1, mask2, mask3, vec0, vec1, vec2,
1918 v16i8 filt0, filt1, src0, src1, mask0, mask1, vec0, vec1;
1929 mask1 = mask0 + 2;
1933 VSHF_B2_SB(src0, src1, src0, src1, mask0, mask1, vec0, vec1);
1945 v16i8 src0, src1, src2, src3, filt0, filt1, mask0, mask1;
1956 mask1 = mask0 + 2;
1960 HORIZ_4TAP_4WID_4VECS_FILT(src0, src1, src2, src3, mask0, mask1,
1972 v16i8 src0, src1, src2, src3, filt0, filt1, mask0, mask1;
1983 mask1 = mask0 + 2;
1989 HORIZ_4TAP_4WID_4VECS_FILT(src0, src1, src2, src3, mask0, mask1,
1993 HORIZ_4TAP_4WID_4VECS_FILT(src0, src1, src2, src3, mask0, mask1,
2008 v16i8 filt0, filt1, mask0, mask1;
2019 mask1 = mask0 + 2;
2024 HORIZ_4TAP_4WID_4VECS_FILT(src0, src1, src2, src3, mask0, mask1,
2026 HORIZ_4TAP_4WID_4VECS_FILT(src4, src5, src6, src7, mask0, mask1,
2039 HORIZ_4TAP_4WID_4VECS_FILT(src0, src1, src2, src3, mask0, mask1,
2041 HORIZ_4TAP_4WID_4VECS_FILT(src4, src5, src6, src7, mask0, mask1,
2070 v16i8 src0, src1, src2, src3, filt0, filt1, mask0, mask1;
2081 mask1 = mask0 + 2;
2087 HORIZ_4TAP_8WID_4VECS_FILT(src0, src1, src2, src3, mask0, mask1, filt0,
2103 HORIZ_4TAP_8WID_4VECS_FILT(src0, src1, src2, src3, mask0, mask1, filt0,
2120 v16i8 src0, src1, filt0, filt1, mask0, mask1;
2130 mask1 = mask0 + 2;
2139 VSHF_B2_SH(src0, src0, src1, src1, mask1, mask1, vec2, vec3);
2154 v16i8 src0, src1, src2, src3, filt0, filt1, mask0, mask1;
2165 mask1 = mask0 + 2;
2172 HORIZ_4TAP_8WID_4VECS_FILT(src0, src1, src2, src3, mask0, mask1, filt0,
2201 v16i8 src0, src1, src2, src3, filt0, filt1, mask0, mask1, mask2, mask3;
2216 mask1 = mask0 + 2;
2237 VSHF_B2_SB(src0, src0, src1, src1, mask1, mask1, vec8, vec9);
2238 VSHF_B2_SB(src2, src2, src3, src3, mask1, mask1, vec10, vec11);
2256 v16i8 filt0, filt1, mask0, mask1;
2268 mask1 = mask0 + 2;
2281 VSHF_B2_SB(src0, src0, src1, src1, mask1, mask1, vec0_m, vec1_m);
2282 VSHF_B2_SB(src2, src2, src3, src3, mask1, mask1, vec2_m, vec3_m);
2298 VSHF_B2_SB(src4, src4, src5, src5, mask1, mask1, vec0_m, vec1_m);
2299 VSHF_B2_SB(src6, src6, src7, src7, mask1, mask1, vec2_m, vec3_m);
2321 v16i8 filt0, filt1, mask0, mask1, mask00, mask11;
2332 mask1 = mask0 + 2;
2344 VSHF_B2_SB(src0, src0, src0, src1, mask1, mask11, vec4, vec5);
2345 VSHF_B2_SB(src2, src2, src2, src3, mask1, mask11, vec6, vec7);
2361 VSHF_B2_SB(src4, src4, src4, src5, mask1, mask11, vec4, vec5);
2362 VSHF_B2_SB(src6, src6, src6, src7, mask1, mask11, vec6, vec7);
2379 VSHF_B2_SB(src1, src1, src3, src3, mask1, mask1, vec4, vec5);
2380 VSHF_B2_SB(src5, src5, src7, src7, mask1, mask1, vec6, vec7);
2402 v16i8 filt0, filt1, mask0, mask1;
2414 mask1 = mask0 + 2;
2434 VSHF_B2_SB(src0, src0, src1, src1, mask1, mask1, vec0_m, vec1_m);
2435 VSHF_B2_SB(src2, src2, src3, src3, mask1, mask1, vec2_m, vec3_m);
2443 VSHF_B2_SB(src4, src4, src5, src5, mask1, mask1, vec0_m, vec1_m);
2444 VSHF_B2_SB(src6, src6, src7, src7, mask1, mask1, vec2_m, vec3_m);
3099 v16i8 mask1;
3115 mask1 = mask0 + 2;
3120 VSHF_B2_SB(src0, src2, src0, src2, mask0, mask1, vec0, vec1);
3121 VSHF_B2_SB(src1, src3, src1, src3, mask0, mask1, vec2, vec3);
3122 VSHF_B2_SB(src2, src4, src2, src4, mask0, mask1, vec4, vec5);
3154 v16i8 mask1;
3171 mask1 = mask0 + 2;
3176 VSHF_B2_SB(src0, src3, src0, src3, mask0, mask1, vec0, vec1);
3177 VSHF_B2_SB(src1, src4, src1, src4, mask0, mask1, vec2, vec3);
3178 VSHF_B2_SB(src2, src5, src2, src5, mask0, mask1, vec4, vec5);
3179 VSHF_B2_SB(src3, src6, src3, src6, mask0, mask1, vec6, vec7);
3216 v16i8 mask1;
3235 mask1 = mask0 + 2;
3242 VSHF_B2_SB(src0, src1, src0, src1, mask0, mask1, vec0, vec1);
3243 VSHF_B2_SB(src1, src2, src1, src2, mask0, mask1, vec2, vec3);
3256 VSHF_B2_SB(src3, src7, src3, src7, mask0, mask1, vec0, vec1);
3257 VSHF_B2_SB(src4, src8, src4, src8, mask0, mask1, vec2, vec3);
3258 VSHF_B2_SB(src5, src9, src5, src9, mask0, mask1, vec4, vec5);
3259 VSHF_B2_SB(src6, src10, src6, src10, mask0, mask1, vec6, vec7);
3333 v16i8 mask1;
3355 mask1 = mask0 + 2;
3362 VSHF_B2_SB(src0, src0, src0, src0, mask0, mask1, vec0, vec1);
3363 VSHF_B2_SB(src1, src1, src1, src1, mask0, mask1, vec2, vec3);
3364 VSHF_B2_SB(src2, src2, src2, src2, mask0, mask1, vec4, vec5);
3376 VSHF_B2_SB(src3, src3, src3, src3, mask0, mask1, vec0, vec1);
3377 VSHF_B2_SB(src4, src4, src4, src4, mask0, mask1, vec2, vec3);
3378 VSHF_B2_SB(src5, src5, src5, src5, mask0, mask1, vec4, vec5);
3379 VSHF_B2_SB(src6, src6, src6, src6, mask0, mask1, vec6, vec7);
3386 VSHF_B2_SB(src7, src7, src7, src7, mask0, mask1, vec0, vec1);
3387 VSHF_B2_SB(src8, src8, src8, src8, mask0, mask1, vec2, vec3);
3388 VSHF_B2_SB(src9, src9, src9, src9, mask0, mask1, vec4, vec5);
3389 VSHF_B2_SB(src10, src10, src10, src10, mask0, mask1, vec6, vec7);
3450 v16i8 mask1;
3468 mask1 = mask0 + 2;
3473 VSHF_B2_SB(src0, src0, src0, src0, mask0, mask1, vec0, vec1);
3474 VSHF_B2_SB(src1, src1, src1, src1, mask0, mask1, vec2, vec3);
3475 VSHF_B2_SB(src2, src2, src2, src2, mask0, mask1, vec4, vec5);
3476 VSHF_B2_SB(src3, src3, src3, src3, mask0, mask1, vec6, vec7);
3477 VSHF_B2_SB(src4, src4, src4, src4, mask0, mask1, vec8, vec9);
3510 v16i8 src0, src1, src2, src3, src4, src5, src6, mask0, mask1;
3529 mask1 = mask0 + 2;
3536 VSHF_B2_SB(src0, src0, src0, src0, mask0, mask1, vec0, vec1);
3537 VSHF_B2_SB(src1, src1, src1, src1, mask0, mask1, vec2, vec3);
3538 VSHF_B2_SB(src2, src2, src2, src2, mask0, mask1, vec4, vec5);
3547 VSHF_B2_SB(src3, src3, src3, src3, mask0, mask1, vec0, vec1);
3548 VSHF_B2_SB(src4, src4, src4, src4, mask0, mask1, vec2, vec3);
3549 VSHF_B2_SB(src5, src5, src5, src5, mask0, mask1, vec4, vec5);
3550 VSHF_B2_SB(src6, src6, src6, src6, mask0, mask1, vec6, vec7);
3597 v16i8 mask1;
3619 mask1 = mask0 + 2;
3628 VSHF_B2_SB(src0, src0, src0, src0, mask0, mask1, vec0, vec1);
3629 VSHF_B2_SB(src1, src1, src1, src1, mask0, mask1, vec2, vec3);
3630 VSHF_B2_SB(src2, src2, src2, src2, mask0, mask1, vec4, vec5);
3631 VSHF_B2_SB(src3, src3, src3, src3, mask0, mask1, vec6, vec7);
3632 VSHF_B2_SB(src4, src4, src4, src4, mask0, mask1, vec8, vec9);
3633 VSHF_B2_SB(src5, src5, src5, src5, mask0, mask1, vec10, vec11);
3634 VSHF_B2_SB(src6, src6, src6, src6, mask0, mask1, vec12, vec13);
3635 VSHF_B2_SB(src7, src7, src7, src7, mask0, mask1, vec14, vec15);
3636 VSHF_B2_SB(src8, src8, src8, src8, mask0, mask1, vec16, vec17);
3705 v16i8 mask1;
3724 mask1 = mask0 + 2;
3735 VSHF_B2_SB(src0, src0, src0, src0, mask0, mask1, vec0, vec1);
3736 VSHF_B2_SB(src1, src1, src1, src1, mask0, mask1, vec2, vec3);
3737 VSHF_B2_SB(src2, src2, src2, src2, mask0, mask1, vec4, vec5);
3752 VSHF_B2_SB(src3, src3, src3, src3, mask0, mask1, vec0, vec1);
3753 VSHF_B2_SB(src4, src4, src4, src4, mask0, mask1, vec2, vec3);
3754 VSHF_B2_SB(src5, src5, src5, src5, mask0, mask1, vec4, vec5);
3755 VSHF_B2_SB(src6, src6, src6, src6, mask0, mask1, vec6, vec7);
3838 v16i8 mask0, mask1, mask2, mask3;
3859 mask1 = mask0 + 2;
3869 VSHF_B2_SB(src0, src0, src0, src0, mask0, mask1, vec0, vec1);
3870 VSHF_B2_SB(src1, src1, src1, src1, mask0, mask1, vec2, vec3);
3871 VSHF_B2_SB(src2, src2, src2, src2, mask0, mask1, vec4, vec5);
3885 VSHF_B2_SB(src3, src3, src3, src3, mask0, mask1, vec0, vec1);
3886 VSHF_B2_SB(src4, src4, src4, src4, mask0, mask1, vec2, vec3);
3887 VSHF_B2_SB(src5, src5, src5, src5, mask0, mask1, vec4, vec5);
3888 VSHF_B2_SB(src6, src6, src6, src6, mask0, mask1, vec6, vec7);