Lines Matching defs:mask0
459 v16i8 mask0 = LD_SB(ff_hevc_mask_arr + 16);
468 mask1 = mask0 + 2;
469 mask2 = mask0 + 4;
470 mask3 = mask0 + 6;
477 VSHF_B4_SB(src0, src1, mask0, mask1, mask2, mask3,
482 VSHF_B4_SB(src2, src3, mask0, mask1, mask2, mask3,
487 VSHF_B4_SB(src4, src5, mask0, mask1, mask2, mask3,
492 VSHF_B4_SB(src6, src7, mask0, mask1, mask2, mask3,
514 v16i8 mask0 = LD_SB(ff_hevc_mask_arr);
523 mask1 = mask0 + 2;
524 mask2 = mask0 + 4;
525 mask3 = mask0 + 6;
532 VSHF_B4_SB(src0, src0, mask0, mask1, mask2, mask3,
537 VSHF_B4_SB(src1, src1, mask0, mask1, mask2, mask3,
542 VSHF_B4_SB(src2, src2, mask0, mask1, mask2, mask3,
547 VSHF_B4_SB(src3, src3, mask0, mask1, mask2, mask3,
565 v16i8 mask0, mask1, mask2, mask3, mask4, mask5, mask6, mask7;
577 mask0 = LD_SB(ff_hevc_mask_arr);
578 mask1 = mask0 + 2;
579 mask2 = mask0 + 4;
580 mask3 = mask0 + 6;
598 VSHF_B2_SB(src0, src0, src1, src1, mask0, mask0, vec0, vec1);
599 VSHF_B2_SB(src2, src2, src3, src3, mask0, mask0, vec2, vec3);
644 v16i8 mask0 = LD_SB(ff_hevc_mask_arr);
653 mask1 = mask0 + 2;
654 mask2 = mask0 + 4;
655 mask3 = mask0 + 6;
667 VSHF_B2_SB(src0, src0, src1, src1, mask0, mask0, vec0, vec1);
668 VSHF_B2_SB(src2, src2, src3, src3, mask0, mask0, vec2, vec3);
701 v16i8 mask0 = LD_SB(ff_hevc_mask_arr);
707 mask1 = mask0 + 2;
708 mask2 = mask0 + 4;
709 mask3 = mask0 + 6;
710 mask4 = mask0 + 8;
711 mask5 = mask0 + 10;
712 mask6 = mask0 + 12;
713 mask7 = mask0 + 14;
731 VSHF_B2_SB(src0, src0, src0, src1, mask0, mask4, vec0, vec1);
732 VSHF_B2_SB(src1, src1, src2, src2, mask0, mask0, vec2, vec3);
733 VSHF_B2_SB(src2, src3, src3, src3, mask4, mask0, vec4, vec5);
776 v16i8 mask0 = LD_SB(ff_hevc_mask_arr);
782 mask1 = mask0 + 2;
783 mask2 = mask0 + 4;
784 mask3 = mask0 + 6;
785 mask4 = mask0 + 8;
786 mask5 = mask0 + 10;
787 mask6 = mask0 + 12;
788 mask7 = mask0 + 14;
799 VSHF_B4_SB(src0, src0, mask0, mask1, mask2, mask3,
809 VSHF_B4_SB(src1, src1, mask0, mask1, mask2, mask3,
814 VSHF_B4_SB(src2, src2, mask0, mask1, mask2, mask3,
836 v16i8 mask0 = LD_SB(ff_hevc_mask_arr);
842 mask1 = mask0 + 2;
843 mask2 = mask0 + 4;
844 mask3 = mask0 + 6;
845 mask4 = mask0 + 8;
846 mask5 = mask0 + 10;
847 mask6 = mask0 + 12;
848 mask7 = mask0 + 14;
865 VSHF_B2_SB(src0, src0, src0, src1, mask0, mask4, vec0, vec1);
866 VSHF_B2_SB(src1, src1, src1, src2, mask0, mask4, vec2, vec3);
883 VSHF_B2_SB(src2, src2, src3, src3, mask0, mask0, vec4, vec5);
907 v16i8 mask0 = LD_SB(ff_hevc_mask_arr);
914 mask1 = mask0 + 2;
915 mask2 = mask0 + 4;
916 mask3 = mask0 + 6;
917 mask4 = mask0 + 8;
918 mask5 = mask0 + 10;
919 mask6 = mask0 + 12;
920 mask7 = mask0 + 14;
931 VSHF_B4_SB(src0, src0, mask0, mask1, mask2, mask3,
945 VSHF_B4_SB(src1, src1, mask0, mask1, mask2, mask3,
959 VSHF_B4_SB(src2, src2, mask0, mask1, mask2, mask3,
973 VSHF_B4_SB(src3, src3, mask0, mask1, mask2, mask3,
980 VSHF_B4_SB(src4, src4, mask0, mask1, mask2, mask3,
1377 v16i8 mask0 = LD_SB(ff_hevc_mask_arr + 16);
1388 mask1 = mask0 + 2;
1389 mask2 = mask0 + 4;
1390 mask3 = mask0 + 6;
1399 VSHF_B4_SB(src0, src3, mask0, mask1, mask2, mask3, vec0, vec1, vec2, vec3);
1400 VSHF_B4_SB(src1, src4, mask0, mask1, mask2, mask3, vec4, vec5, vec6, vec7);
1401 VSHF_B4_SB(src2, src5, mask0, mask1, mask2, mask3,
1403 VSHF_B4_SB(src3, src6, mask0, mask1, mask2, mask3,
1428 VSHF_B4_SB(src7, src9, mask0, mask1, mask2, mask3,
1430 VSHF_B4_SB(src8, src10, mask0, mask1, mask2, mask3,
1489 v16i8 mask0 = { 0, 1, 1, 2, 2, 3, 3, 4, 4, 5, 5, 6, 6, 7, 7, 8 };
1500 mask1 = mask0 + 2;
1501 mask2 = mask0 + 4;
1502 mask3 = mask0 + 6;
1516 VSHF_B4_SB(src0, src0, mask0, mask1, mask2, mask3,
1518 VSHF_B4_SB(src1, src1, mask0, mask1, mask2, mask3,
1520 VSHF_B4_SB(src2, src2, mask0, mask1, mask2, mask3,
1522 VSHF_B4_SB(src3, src3, mask0, mask1, mask2, mask3,
1538 VSHF_B4_SB(src4, src4, mask0, mask1, mask2, mask3,
1540 VSHF_B4_SB(src5, src5, mask0, mask1, mask2, mask3,
1542 VSHF_B4_SB(src6, src6, mask0, mask1, mask2, mask3,
1559 VSHF_B4_SB(src7, src7, mask0, mask1, mask2, mask3,
1612 v16i8 mask0, mask1, mask2, mask3, mask4, mask5, mask6, mask7;
1632 mask0 = LD_SB(ff_hevc_mask_arr);
1633 mask1 = mask0 + 2;
1634 mask2 = mask0 + 4;
1635 mask3 = mask0 + 6;
1648 VSHF_B4_SB(src0, src0, mask0, mask1, mask2, mask3, vec0, vec1, vec2, vec3);
1649 VSHF_B4_SB(src1, src1, mask0, mask1, mask2, mask3, vec4, vec5, vec6, vec7);
1650 VSHF_B4_SB(src2, src2, mask0, mask1, mask2, mask3, vec8, vec9, vec10,
1652 VSHF_B4_SB(src3, src3, mask0, mask1, mask2, mask3, vec12, vec13, vec14,
1668 VSHF_B4_SB(src4, src4, mask0, mask1, mask2, mask3, vec0, vec1, vec2, vec3);
1669 VSHF_B4_SB(src5, src5, mask0, mask1, mask2, mask3, vec4, vec5, vec6, vec7);
1670 VSHF_B4_SB(src6, src6, mask0, mask1, mask2, mask3, vec8, vec9, vec10,
1687 VSHF_B4_SB(src7, src7, mask0, mask1, mask2, mask3, vec0, vec1, vec2,
1854 v16i8 mask0 = LD_SB(ff_hevc_mask_arr + 16);
1861 mask1 = mask0 + 2;
1869 VSHF_B2_SB(src0, src1, src0, src1, mask0, mask1, vec0, vec1);
1887 v16i8 mask0 = LD_SB(ff_hevc_mask_arr + 16);
1894 mask1 = mask0 + 2;
1902 VSHF_B2_SB(src0, src1, src0, src1, mask0, mask1, vec0, vec1);
1906 VSHF_B2_SB(src2, src3, src2, src3, mask0, mask1, vec0, vec1);
1926 v16i8 mask0 = LD_SB(ff_hevc_mask_arr + 16);
1933 mask1 = mask0 + 2;
1944 VSHF_B2_SB(src0, src1, src0, src1, mask0, mask1, vec0, vec1);
1947 VSHF_B2_SB(src2, src3, src2, src3, mask0, mask1, vec0, vec1);
1950 VSHF_B2_SB(src4, src5, src4, src5, mask0, mask1, vec0, vec1);
1953 VSHF_B2_SB(src6, src7, src6, src7, mask0, mask1, vec0, vec1);
1991 v16i8 mask0 = LD_SB(ff_hevc_mask_arr);
2001 mask1 = mask0 + 2;
2012 VSHF_B2_SB(src0, src0, src0, src0, mask0, mask1, vec0, vec1);
2015 VSHF_B2_SB(src1, src1, src1, src1, mask0, mask1, vec0, vec1);
2018 VSHF_B2_SB(src2, src2, src2, src2, mask0, mask1, vec0, vec1);
2021 VSHF_B2_SB(src3, src3, src3, src3, mask0, mask1, vec0, vec1);
2060 v16i8 mask0 = LD_SB(ff_hevc_mask_arr);
2070 mask1 = mask0 + 2;
2081 VSHF_B2_SB(src0, src0, src0, src0, mask0, mask1, vec0, vec1);
2085 VSHF_B2_SB(src1, src1, src1, src1, mask0, mask1, vec0, vec1);
2104 v16i8 mask0 = LD_SB(ff_hevc_mask_arr);
2115 mask1 = mask0 + 2;
2126 VSHF_B2_SB(src0, src0, src0, src0, mask0, mask1, vec0, vec1);
2130 VSHF_B2_SB(src1, src1, src1, src1, mask0, mask1, vec0, vec1);
2134 VSHF_B2_SB(src2, src2, src2, src2, mask0, mask1, vec0, vec1);
2138 VSHF_B2_SB(src3, src3, src3, src3, mask0, mask1, vec0, vec1);
2178 v16i8 mask0 = LD_SB(ff_hevc_mask_arr);
2188 mask1 = mask0 + 2;
2199 VSHF_B2_SB(src0, src0, src0, src0, mask0, mask1, vec0, vec1);
2202 VSHF_B2_SB(src1, src1, src1, src1, mask0, mask1, vec0, vec1);
2205 VSHF_B2_SB(src2, src2, src2, src2, mask0, mask1, vec0, vec1);
2208 VSHF_B2_SB(src3, src3, src3, src3, mask0, mask1, vec0, vec1);
2235 v16i8 mask0 = LD_SB(ff_hevc_mask_arr);
2246 mask1 = mask0 + 2;
2258 VSHF_B2_SB(src0, src0, src0, src0, mask0, mask1, vec0, vec1);
2262 VSHF_B2_SB(src1, src1, src1, src1, mask0, mask1, vec0, vec1);
2266 VSHF_B2_SB(src2, src2, src2, src2, mask0, mask1, vec0, vec1);
2270 VSHF_B2_SB(src3, src3, src3, src3, mask0, mask1, vec0, vec1);
2274 VSHF_B2_SB(src4, src4, src4, src4, mask0, mask1, vec0, vec1);
2278 VSHF_B2_SB(src5, src5, src5, src5, mask0, mask1, vec0, vec1);
2282 VSHF_B2_SB(src6, src6, src6, src6, mask0, mask1, vec0, vec1);
2286 VSHF_B2_SB(src7, src7, src7, src7, mask0, mask1, vec0, vec1);
2307 v16i8 mask0 = LD_SB(ff_hevc_mask_arr);
2318 mask1 = mask0 + 2;
2319 mask00 = mask0 + 8;
2320 mask11 = mask0 + 10;
2333 VSHF_B2_SB(src0, src0, src0, src0, mask0, mask1, vec0, vec1);
2341 VSHF_B2_SB(src2, src2, src2, src2, mask0, mask1, vec0, vec1);
2354 VSHF_B2_SB(src4, src4, src4, src4, mask0, mask1, vec0, vec1);
2362 VSHF_B2_SB(src6, src6, src6, src6, mask0, mask1, vec0, vec1);
2376 VSHF_B2_SB(src1, src1, src1, src1, mask0, mask1, vec0, vec1);
2380 VSHF_B2_SB(src3, src3, src3, src3, mask0, mask1, vec0, vec1);
2384 VSHF_B2_SB(src5, src5, src5, src5, mask0, mask1, vec0, vec1);
2388 VSHF_B2_SB(src7, src7, src7, src7, mask0, mask1, vec0, vec1);
2407 v16i8 mask0 = LD_SB(ff_hevc_mask_arr);
2421 mask1 = mask0 + 2;
2422 mask2 = mask0 + 8;
2423 mask3 = mask0 + 10;
2436 VSHF_B2_SB(src0, src0, src0, src1, mask0, mask2, vec0, vec1);
2437 VSHF_B2_SB(src1, src1, src2, src2, mask0, mask0, vec2, vec3);
3245 v16i8 mask0 = LD_SB(ff_hevc_mask_arr + 16);
3261 mask1 = mask0 + 2;
3268 VSHF_B2_SB(src0, src2, src0, src2, mask0, mask1, vec0, vec1);
3269 VSHF_B2_SB(src1, src3, src1, src3, mask0, mask1, vec2, vec3);
3270 VSHF_B2_SB(src2, src4, src2, src4, mask0, mask1, vec4, vec5);
3299 v16i8 mask0 = LD_SB(ff_hevc_mask_arr + 16);
3316 mask1 = mask0 + 2;
3324 VSHF_B2_SB(src0, src3, src0, src3, mask0, mask1, vec0, vec1);
3325 VSHF_B2_SB(src1, src4, src1, src4, mask0, mask1, vec2, vec3);
3326 VSHF_B2_SB(src2, src5, src2, src5, mask0, mask1, vec4, vec5);
3327 VSHF_B2_SB(src3, src6, src3, src6, mask0, mask1, vec6, vec7);
3365 v16i8 mask0 = LD_SB(ff_hevc_mask_arr + 16);
3383 mask1 = mask0 + 2;
3391 VSHF_B2_SB(src0, src1, src0, src1, mask0, mask1, vec0, vec1);
3392 VSHF_B2_SB(src1, src2, src1, src2, mask0, mask1, vec2, vec3);
3406 VSHF_B2_SB(src3, src7, src3, src7, mask0, mask1, vec0, vec1);
3407 VSHF_B2_SB(src4, src8, src4, src8, mask0, mask1, vec2, vec3);
3408 VSHF_B2_SB(src5, src9, src5, src9, mask0, mask1, vec4, vec5);
3409 VSHF_B2_SB(src6, src10, src6, src10, mask0, mask1, vec6, vec7);
3479 v16i8 mask0 = LD_SB(ff_hevc_mask_arr);
3501 mask1 = mask0 + 2;
3510 VSHF_B2_SB(src0, src0, src0, src0, mask0, mask1, vec0, vec1);
3511 VSHF_B2_SB(src1, src1, src1, src1, mask0, mask1, vec2, vec3);
3512 VSHF_B2_SB(src2, src2, src2, src2, mask0, mask1, vec4, vec5);
3527 VSHF_B2_SB(src3, src3, src3, src3, mask0, mask1, vec0, vec1);
3528 VSHF_B2_SB(src4, src4, src4, src4, mask0, mask1, vec2, vec3);
3529 VSHF_B2_SB(src5, src5, src5, src5, mask0, mask1, vec4, vec5);
3530 VSHF_B2_SB(src6, src6, src6, src6, mask0, mask1, vec6, vec7);
3541 VSHF_B2_SB(src7, src7, src7, src7, mask0, mask1, vec0, vec1);
3542 VSHF_B2_SB(src8, src8, src8, src8, mask0, mask1, vec2, vec3);
3543 VSHF_B2_SB(src9, src9, src9, src9, mask0, mask1, vec4, vec5);
3544 VSHF_B2_SB(src10, src10, src10, src10, mask0, mask1, vec6, vec7);
3603 v16i8 mask0 = LD_SB(ff_hevc_mask_arr);
3622 mask1 = mask0 + 2;
3630 VSHF_B2_SB(src0, src0, src0, src0, mask0, mask1, vec0, vec1);
3631 VSHF_B2_SB(src1, src1, src1, src1, mask0, mask1, vec2, vec3);
3632 VSHF_B2_SB(src2, src2, src2, src2, mask0, mask1, vec4, vec5);
3633 VSHF_B2_SB(src3, src3, src3, src3, mask0, mask1, vec6, vec7);
3634 VSHF_B2_SB(src4, src4, src4, src4, mask0, mask1, vec8, vec9);
3666 v16i8 src0, src1, src2, src3, src4, src5, src6, mask0, mask1;
3684 mask0 = LD_SB(ff_hevc_mask_arr);
3685 mask1 = mask0 + 2;
3695 VSHF_B2_SB(src0, src0, src0, src0, mask0, mask1, vec0, vec1);
3696 VSHF_B2_SB(src1, src1, src1, src1, mask0, mask1, vec2, vec3);
3697 VSHF_B2_SB(src2, src2, src2, src2, mask0, mask1, vec4, vec5);
3709 VSHF_B2_SB(src3, src3, src3, src3, mask0, mask1, vec0, vec1);
3710 VSHF_B2_SB(src4, src4, src4, src4, mask0, mask1, vec2, vec3);
3711 VSHF_B2_SB(src5, src5, src5, src5, mask0, mask1, vec4, vec5);
3712 VSHF_B2_SB(src6, src6, src6, src6, mask0, mask1, vec6, vec7);
3754 v16i8 mask0 = LD_SB(ff_hevc_mask_arr);
3777 mask1 = mask0 + 2;
3789 VSHF_B2_SB(src0, src0, src0, src0, mask0, mask1, vec0, vec1);
3790 VSHF_B2_SB(src1, src1, src1, src1, mask0, mask1, vec2, vec3);
3791 VSHF_B2_SB(src2, src2, src2, src2, mask0, mask1, vec4, vec5);
3792 VSHF_B2_SB(src3, src3, src3, src3, mask0, mask1, vec6, vec7);
3793 VSHF_B2_SB(src4, src4, src4, src4, mask0, mask1, vec8, vec9);
3794 VSHF_B2_SB(src5, src5, src5, src5, mask0, mask1, vec10, vec11);
3795 VSHF_B2_SB(src6, src6, src6, src6, mask0, mask1, vec12, vec13);
3796 VSHF_B2_SB(src7, src7, src7, src7, mask0, mask1, vec14, vec15);
3797 VSHF_B2_SB(src8, src8, src8, src8, mask0, mask1, vec16, vec17);
3870 v16i8 mask0 = LD_SB(ff_hevc_mask_arr);
3889 mask1 = mask0 + 2;
3903 VSHF_B2_SB(src0, src0, src0, src0, mask0, mask1, vec0, vec1);
3904 VSHF_B2_SB(src1, src1, src1, src1, mask0, mask1, vec2, vec3);
3905 VSHF_B2_SB(src2, src2, src2, src2, mask0, mask1, vec4, vec5);
3922 VSHF_B2_SB(src3, src3, src3, src3, mask0, mask1, vec0, vec1);
3923 VSHF_B2_SB(src4, src4, src4, src4, mask0, mask1, vec2, vec3);
3924 VSHF_B2_SB(src5, src5, src5, src5, mask0, mask1, vec4, vec5);
3925 VSHF_B2_SB(src6, src6, src6, src6, mask0, mask1, vec6, vec7);
4009 v16i8 mask0, mask1, mask2, mask3;
4028 mask0 = LD_SB(ff_hevc_mask_arr);
4029 mask1 = mask0 + 2;
4042 VSHF_B2_SB(src0, src0, src0, src0, mask0, mask1, vec0, vec1);
4043 VSHF_B2_SB(src1, src1, src1, src1, mask0, mask1, vec2, vec3);
4044 VSHF_B2_SB(src2, src2, src2, src2, mask0, mask1, vec4, vec5);
4061 VSHF_B2_SB(src3, src3, src3, src3, mask0, mask1, vec0, vec1);
4062 VSHF_B2_SB(src4, src4, src4, src4, mask0, mask1, vec2, vec3);
4063 VSHF_B2_SB(src5, src5, src5, src5, mask0, mask1, vec4, vec5);
4064 VSHF_B2_SB(src6, src6, src6, src6, mask0, mask1, vec6, vec7);