Lines Matching defs:mask0

546     v16i8 mask0 = LD_SB(&ff_hevc_mask_arr[16]);
554 mask1 = mask0 + 2;
555 mask2 = mask0 + 4;
556 mask3 = mask0 + 6;
576 VSHF_B2_SB(src0, src1, src2, src3, mask0, mask0, vec0, vec1);
577 VSHF_B2_SB(src4, src5, src6, src7, mask0, mask0, vec2, vec3);
619 v16i8 mask0 = LD_SB(&ff_hevc_mask_arr[0]);
629 mask1 = mask0 + 2;
630 mask2 = mask0 + 4;
631 mask3 = mask0 + 6;
644 VSHF_B2_SB(src0, src0, src1, src1, mask0, mask0, vec0, vec1);
645 VSHF_B2_SB(src2, src2, src3, src3, mask0, mask0, vec2, vec3);
685 v16i8 mask0, mask1, mask2, mask3, mask4, mask5, mask6, mask7;
697 mask0 = LD_SB(ff_hevc_mask_arr);
698 mask1 = mask0 + 2;
699 mask2 = mask0 + 4;
700 mask3 = mask0 + 6;
721 VSHF_B3_SB(src0, src0, src1, src3, src2, src2, mask0, mask4, mask0,
775 v16i8 mask0 = LD_SB(&ff_hevc_mask_arr[0]);
784 mask1 = mask0 + 2;
785 mask2 = mask0 + 4;
786 mask3 = mask0 + 6;
803 VSHF_B2_SB(src0, src0, src1, src1, mask0, mask0, vec0, vec1);
804 VSHF_B2_SB(src2, src2, src3, src3, mask0, mask0, vec2, vec3);
847 v16i8 mask0 = LD_SB(&ff_hevc_mask_arr[0]);
856 mask1 = mask0 + 2;
857 mask2 = mask0 + 4;
858 mask3 = mask0 + 6;
859 mask4 = mask0 + 8;
860 mask5 = mask0 + 10;
861 mask6 = mask0 + 12;
862 mask7 = mask0 + 14;
875 VSHF_B2_SB(src0, src0, src0, src1, mask0, mask4, vec0, vec1);
876 VSHF_B2_SB(src1, src1, src0, src0, mask0, mask1, vec2, vec3);
918 v16i8 mask0 = LD_SB(&ff_hevc_mask_arr[0]);
927 mask1 = mask0 + 2;
928 mask2 = mask0 + 4;
929 mask3 = mask0 + 6;
930 mask4 = mask0 + 8;
931 mask5 = mask0 + 10;
932 mask6 = mask0 + 12;
933 mask7 = mask0 + 14;
947 VSHF_B2_SB(src0, src0, src0, src1, mask0, mask4, vec0, vec1);
948 VSHF_B2_SB(src1, src1, src2, src2, mask0, mask0, vec2, vec3);
991 v16i8 mask0 = LD_SB(&ff_hevc_mask_arr[0]);
1001 mask1 = mask0 + 2;
1002 mask2 = mask0 + 4;
1003 mask3 = mask0 + 6;
1004 mask4 = mask0 + 8;
1005 mask5 = mask0 + 10;
1006 mask6 = mask0 + 12;
1007 mask7 = mask0 + 14;
1021 VSHF_B2_SB(src0, src0, src0, src1, mask0, mask4, vec0, vec1);
1022 VSHF_B2_SB(src1, src1, src1, src2, mask0, mask4, vec2, vec3);
1048 VSHF_B2_SB(src2, src2, src3, src3, mask0, mask0, vec0, vec1);
1077 v16i8 mask0 = LD_SB(&ff_hevc_mask_arr[0]);
1092 mask1 = mask0 + 2;
1093 mask2 = mask0 + 4;
1094 mask3 = mask0 + 6;
1095 mask4 = mask0 + 8;
1096 mask5 = mask0 + 10;
1097 mask6 = mask0 + 12;
1098 mask7 = mask0 + 14;
1113 VSHF_B2_SB(src0, src0, src0, src1, mask0, mask4, vec0, vec1);
1114 VSHF_B2_SB(src1, src1, src2, src2, mask0, mask0, vec2, vec3);
1148 VSHF_B2_SB(src0, src0, src0, src1, mask0, mask4, vec0, vec1);
1149 VSHF_B2_SB(src1, src1, src2, src2, mask0, mask0, vec2, vec3);
1644 v16i8 mask0 = LD_SB(ff_hevc_mask_arr + 16);
1655 mask1 = mask0 + 2;
1656 mask2 = mask0 + 4;
1657 mask3 = mask0 + 6;
1667 VSHF_B4_SB(src0, src3, mask0, mask1, mask2, mask3, vec0, vec1, vec2, vec3);
1668 VSHF_B4_SB(src1, src4, mask0, mask1, mask2, mask3, vec4, vec5, vec6, vec7);
1669 VSHF_B4_SB(src2, src5, mask0, mask1, mask2, mask3,
1671 VSHF_B4_SB(src3, src6, mask0, mask1, mask2, mask3,
1701 VSHF_B4_SB(src7, src9, mask0, mask1, mask2, mask3,
1703 VSHF_B4_SB(src8, src10, mask0, mask1, mask2, mask3,
1764 v16i8 mask0 = LD_SB(ff_hevc_mask_arr);
1786 mask1 = mask0 + 2;
1787 mask2 = mask0 + 4;
1788 mask3 = mask0 + 6;
1801 VSHF_B4_SB(src0, src0, mask0, mask1, mask2, mask3,
1803 VSHF_B4_SB(src1, src1, mask0, mask1, mask2, mask3,
1805 VSHF_B4_SB(src2, src2, mask0, mask1, mask2, mask3,
1807 VSHF_B4_SB(src3, src3, mask0, mask1, mask2, mask3,
1818 VSHF_B4_SB(src4, src4, mask0, mask1, mask2, mask3,
1820 VSHF_B4_SB(src5, src5, mask0, mask1, mask2, mask3,
1822 VSHF_B4_SB(src6, src6, mask0, mask1, mask2, mask3,
1839 VSHF_B4_SB(src7, src7, mask0, mask1, mask2, mask3,
1908 v16i8 mask0, mask1, mask2, mask3, mask4, mask5, mask6, mask7;
1933 mask0 = LD_SB(ff_hevc_mask_arr);
1934 mask1 = mask0 + 2;
1935 mask2 = mask0 + 4;
1936 mask3 = mask0 + 6;
1948 VSHF_B4_SB(src0, src0, mask0, mask1, mask2, mask3, vec0, vec1, vec2,
1950 VSHF_B4_SB(src1, src1, mask0, mask1, mask2, mask3, vec4, vec5, vec6,
1952 VSHF_B4_SB(src2, src2, mask0, mask1, mask2, mask3, vec8, vec9, vec10,
1954 VSHF_B4_SB(src3, src3, mask0, mask1, mask2, mask3, vec12, vec13, vec14,
1964 VSHF_B4_SB(src4, src4, mask0, mask1, mask2, mask3, vec0, vec1, vec2,
1966 VSHF_B4_SB(src5, src5, mask0, mask1, mask2, mask3, vec4, vec5, vec6,
1968 VSHF_B4_SB(src6, src6, mask0, mask1, mask2, mask3, vec8, vec9, vec10,
1985 VSHF_B4_SB(src7, src7, mask0, mask1, mask2, mask3, vec0, vec1, vec2,
2193 v16i8 mask0 = LD_SB(&ff_hevc_mask_arr[16]);
2206 mask1 = mask0 + 2;
2212 VSHF_B2_SB(src0, src1, src0, src1, mask0, mask1, vec0, vec1);
2237 v16i8 mask0 = LD_SB(&ff_hevc_mask_arr[16]);
2250 mask1 = mask0 + 2;
2260 VSHF_B2_SB(src0, src1, src2, src3, mask0, mask0, vec0, vec1);
2284 v16i8 mask0 = LD_SB(&ff_hevc_mask_arr[16]);
2297 mask1 = mask0 + 2;
2315 VSHF_B2_SB(src0, src1, src2, src3, mask0, mask0, vec0, vec1);
2316 VSHF_B2_SB(src4, src5, src6, src7, mask0, mask0, vec2, vec3);
2368 v16i8 mask0 = LD_SB(&ff_hevc_mask_arr[0]);
2382 mask1 = mask0 + 2;
2395 VSHF_B2_SB(src0, src0, src1, src1, mask0, mask0, vec0, vec1);
2396 VSHF_B2_SB(src2, src2, src3, src3, mask0, mask0, vec2, vec3);
2428 v16i8 mask0 = LD_SB(&ff_hevc_mask_arr[0]);
2441 mask1 = mask0 + 2;
2449 VSHF_B2_SB(src0, src0, src1, src1, mask0, mask0, vec0, vec1);
2471 v16i8 mask0 = LD_SB(&ff_hevc_mask_arr[0]);
2485 mask1 = mask0 + 2;
2497 VSHF_B2_SB(src0, src0, src1, src1, mask0, mask0, vec0, vec1);
2498 VSHF_B2_SB(src2, src2, src3, src3, mask0, mask0, vec2, vec3);
2508 VSHF_B2_SB(src4, src4, src5, src5, mask0, mask0, vec0, vec1);
2536 v16i8 mask0 = LD_SB(ff_hevc_mask_arr);
2550 mask1 = mask0 + 2;
2563 VSHF_B2_SB(src0, src0, src1, src1, mask0, mask0, vec0, vec1);
2564 VSHF_B2_SB(src2, src2, src3, src3, mask0, mask0, vec2, vec3);
2616 v16i8 mask0 = LD_SB(&ff_hevc_mask_arr[0]);
2633 mask1 = mask0 + 2;
2652 VSHF_B2_SB(src0, src0, src1, src1, mask0, mask0, vec0, vec1);
2653 VSHF_B2_SB(src2, src2, src3, src3, mask0, mask0, vec2, vec3);
2690 v16i8 mask0 = LD_SB(&ff_hevc_mask_arr[0]);
2702 mask1 = mask0 + 2;
2719 VSHF_B2_SB(src0, src0, src1, src1, mask0, mask0, vec0, vec1);
2720 VSHF_B2_SB(src2, src2, src3, src3, mask0, mask0, vec2, vec3);
2752 v16i8 mask0 = LD_SB(&ff_hevc_mask_arr[0]);
2766 mask1 = mask0 + 2;
2767 mask2 = mask0 + 8;
2768 mask3 = mask0 + 10;
2786 VSHF_B2_SB(src0, src0, src0, src1, mask0, mask2, vec0, vec1);
2787 VSHF_B2_SB(src2, src2, src2, src3, mask0, mask2, vec2, vec3);
2799 VSHF_B2_SB(src4, src4, src4, src5, mask0, mask2, vec0, vec1);
2800 VSHF_B2_SB(src6, src6, src6, src7, mask0, mask2, vec2, vec3);
2825 VSHF_B2_SB(src1, src1, src3, src3, mask0, mask0, vec0, vec1);
2826 VSHF_B2_SB(src5, src5, src7, src7, mask0, mask0, vec2, vec3);
2856 v16i8 mask0 = LD_SB(&ff_hevc_mask_arr[0]);
2870 mask1 = mask0 + 2;
2871 mask2 = mask0 + 8;
2872 mask3 = mask0 + 10;
2886 VSHF_B2_SB(src0, src0, src0, src1, mask0, mask2, vec0, vec1);
2887 VSHF_B2_SB(src1, src1, src2, src2, mask0, mask0, vec2, vec3);
3799 v16i8 mask0 = LD_SB(ff_hevc_mask_arr + 16);
3816 mask1 = mask0 + 2;
3828 VSHF_B2_SB(src0, src2, src0, src2, mask0, mask1, vec0, vec1);
3829 VSHF_B2_SB(src1, src3, src1, src3, mask0, mask1, vec2, vec3);
3830 VSHF_B2_SB(src2, src4, src2, src4, mask0, mask1, vec4, vec5);
3865 v16i8 mask0 = LD_SB(ff_hevc_mask_arr + 16);
3885 mask1 = mask0 + 2;
3901 VSHF_B2_SB(src0, src3, src0, src3, mask0, mask1, vec0, vec1);
3902 VSHF_B2_SB(src1, src4, src1, src4, mask0, mask1, vec2, vec3);
3903 VSHF_B2_SB(src2, src5, src2, src5, mask0, mask1, vec4, vec5);
3904 VSHF_B2_SB(src3, src6, src3, src6, mask0, mask1, vec6, vec7);
3943 v16i8 mask0 = LD_SB(ff_hevc_mask_arr + 16);
3965 mask1 = mask0 + 2;
3974 VSHF_B2_SB(src0, src1, src0, src1, mask0, mask1, vec0, vec1);
3975 VSHF_B2_SB(src1, src2, src1, src2, mask0, mask1, vec2, vec3);
3987 VSHF_B2_SB(src3, src7, src3, src7, mask0, mask1, vec0, vec1);
3988 VSHF_B2_SB(src4, src8, src4, src8, mask0, mask1, vec2, vec3);
3989 VSHF_B2_SB(src5, src9, src5, src9, mask0, mask1, vec4, vec5);
3990 VSHF_B2_SB(src6, src10, src6, src10, mask0, mask1, vec6, vec7);
4087 v16i8 mask0 = LD_SB(ff_hevc_mask_arr);
4113 mask1 = mask0 + 2;
4122 VSHF_B2_SB(src0, src0, src0, src0, mask0, mask1, vec0, vec1);
4123 VSHF_B2_SB(src1, src1, src1, src1, mask0, mask1, vec2, vec3);
4124 VSHF_B2_SB(src2, src2, src2, src2, mask0, mask1, vec4, vec5);
4137 VSHF_B2_SB(src3, src3, src3, src3, mask0, mask1, vec0, vec1);
4138 VSHF_B2_SB(src4, src4, src4, src4, mask0, mask1, vec2, vec3);
4139 VSHF_B2_SB(src5, src5, src5, src5, mask0, mask1, vec4, vec5);
4140 VSHF_B2_SB(src6, src6, src6, src6, mask0, mask1, vec6, vec7);
4147 VSHF_B2_SB(src7, src7, src7, src7, mask0, mask1, vec0, vec1);
4148 VSHF_B2_SB(src8, src8, src8, src8, mask0, mask1, vec2, vec3);
4149 VSHF_B2_SB(src9, src9, src9, src9, mask0, mask1, vec4, vec5);
4150 VSHF_B2_SB(src10, src10, src10, src10, mask0, mask1, vec6, vec7);
4233 v16i8 mask0 = LD_SB(ff_hevc_mask_arr);
4254 mask1 = mask0 + 2;
4265 VSHF_B2_SB(src0, src0, src0, src0, mask0, mask1, vec0, vec1);
4266 VSHF_B2_SB(src1, src1, src1, src1, mask0, mask1, vec2, vec3);
4267 VSHF_B2_SB(src2, src2, src2, src2, mask0, mask1, vec4, vec5);
4268 VSHF_B2_SB(src3, src3, src3, src3, mask0, mask1, vec6, vec7);
4269 VSHF_B2_SB(src4, src4, src4, src4, mask0, mask1, vec8, vec9);
4306 v16i8 src0, src1, src2, src3, src4, src5, src6, mask0, mask1;
4325 mask0 = LD_SB(ff_hevc_mask_arr);
4326 mask1 = mask0 + 2;
4341 VSHF_B2_SB(src0, src0, src0, src0, mask0, mask1, vec0, vec1);
4342 VSHF_B2_SB(src1, src1, src1, src1, mask0, mask1, vec2, vec3);
4343 VSHF_B2_SB(src2, src2, src2, src2, mask0, mask1, vec4, vec5);
4352 VSHF_B2_SB(src3, src3, src3, src3, mask0, mask1, vec0, vec1);
4353 VSHF_B2_SB(src4, src4, src4, src4, mask0, mask1, vec2, vec3);
4354 VSHF_B2_SB(src5, src5, src5, src5, mask0, mask1, vec4, vec5);
4355 VSHF_B2_SB(src6, src6, src6, src6, mask0, mask1, vec6, vec7);
4404 v16i8 mask0 = LD_SB(ff_hevc_mask_arr);
4428 mask1 = mask0 + 2;
4445 VSHF_B2_SB(src0, src0, src0, src0, mask0, mask1, vec0, vec1);
4446 VSHF_B2_SB(src1, src1, src1, src1, mask0, mask1, vec2, vec3);
4447 VSHF_B2_SB(src2, src2, src2, src2, mask0, mask1, vec4, vec5);
4448 VSHF_B2_SB(src3, src3, src3, src3, mask0, mask1, vec6, vec7);
4449 VSHF_B2_SB(src4, src4, src4, src4, mask0, mask1, vec8, vec9);
4450 VSHF_B2_SB(src5, src5, src5, src5, mask0, mask1, vec10, vec11);
4451 VSHF_B2_SB(src6, src6, src6, src6, mask0, mask1, vec12, vec13);
4452 VSHF_B2_SB(src7, src7, src7, src7, mask0, mask1, vec14, vec15);
4453 VSHF_B2_SB(src8, src8, src8, src8, mask0, mask1, vec16, vec17);
4526 v16i8 mask0 = LD_SB(ff_hevc_mask_arr);
4547 mask1 = mask0 + 2;
4561 VSHF_B2_SB(src0, src0, src0, src0, mask0, mask1, vec0, vec1);
4562 VSHF_B2_SB(src1, src1, src1, src1, mask0, mask1, vec2, vec3);
4563 VSHF_B2_SB(src2, src2, src2, src2, mask0, mask1, vec4, vec5);
4582 VSHF_B2_SB(src3, src3, src3, src3, mask0, mask1, vec0, vec1);
4583 VSHF_B2_SB(src4, src4, src4, src4, mask0, mask1, vec2, vec3);
4584 VSHF_B2_SB(src5, src5, src5, src5, mask0, mask1, vec4, vec5);
4585 VSHF_B2_SB(src6, src6, src6, src6, mask0, mask1, vec6, vec7);
4675 v16i8 mask0, mask1, mask2, mask3;
4696 mask0 = LD_SB(ff_hevc_mask_arr);
4697 mask1 = mask0 + 2;
4711 VSHF_B2_SB(src0, src0, src0, src0, mask0, mask1, vec0, vec1);
4712 VSHF_B2_SB(src1, src1, src1, src1, mask0, mask1, vec2, vec3);
4713 VSHF_B2_SB(src2, src2, src2, src2, mask0, mask1, vec4, vec5);
4732 VSHF_B2_SB(src3, src3, src3, src3, mask0, mask1, vec0, vec1);
4733 VSHF_B2_SB(src4, src4, src4, src4, mask0, mask1, vec2, vec3);
4734 VSHF_B2_SB(src5, src5, src5, src5, mask0, mask1, vec4, vec5);
4735 VSHF_B2_SB(src6, src6, src6, src6, mask0, mask1, vec6, vec7);