Lines Matching defs:vec0
33 #define HEVC_PRED_PLANAR_16x2(src0_r, src0_l, tmp0, tmp1, vec0, vec1, \
39 MUL4(mul_val_h0, vec0, mul_val_h2, vec0, mul_val_h0, vec1, \
68 v8i16 vec0, vec1, vec2;
79 vec0 = __msa_fill_h(src_left[-1]);
83 vec2 -= vec0;
103 v8i16 vec0, vec1, vec2;
118 vec0 = __msa_fill_h(src_left[-1]);
122 vec2 -= vec0;
158 v8i16 vec0, vec1, vec2, vec3;
170 vec0 = __msa_fill_h(src_left[-1]);
174 SUB2(vec2, vec0, vec3, vec0, vec2, vec3);
351 v8u16 sum, vec0, vec1;
366 ILVR_B2_UH(zero, store, zero, src, vec0, vec1);
368 vec1 += vec0;
369 vec0 += vec0;
370 vec1 += vec0;
412 v8u16 sum, vec0, vec1;
434 ILVR_B2_UH(zero, store, zero, src, vec0, vec1);
436 vec1 += vec0;
437 vec0 += vec0;
438 vec1 += vec0;
449 vec0 = (v8u16) __msa_fill_h(addition);
450 vec0 *= 3;
451 vec1 += vec0;
470 v8u16 vec0, vec1, vec2;
492 vec0 = (v8u16) __msa_ilvr_b(zero, (v16i8) store);
494 ADD2(vec1, vec0, vec2, vec0, vec1, vec2);
495 vec0 += vec0;
496 ADD2(vec1, vec0, vec2, vec0, vec1, vec2);
504 vec0 = (v8u16) __msa_fill_h(addition);
505 vec0 *= 3;
506 ADD2(vec1, vec0, vec2, vec0, vec1, vec2);
555 v8i16 vec0, vec1, vec2, vec3, res0, res1, res2, res3;
568 SPLATI_H4_SH(src1_r, 0, 1, 2, 3, vec0, vec1, vec2, vec3);
573 MUL4(mul_val0, vec0, mul_val0, vec1, mul_val0, vec2, mul_val0, vec3,
602 v8i16 vec0, vec1, vec2, vec3, vec4, vec5, vec6, vec7;
616 SPLATI_H4_SH(src_vec1_r, 0, 1, 2, 3, vec0, vec1, vec2, vec3);
622 MUL4(mul_val0, vec0, mul_val0, vec1, mul_val0, vec2, mul_val0, vec3,
669 v8i16 vec0, vec1;
687 SPLATI_H2_SH(src1_r, 0, 1, vec0, vec1);
688 HEVC_PRED_PLANAR_16x2(src0_r, src0_l, tmp0, tmp1, vec0, vec1,
694 SPLATI_H2_SH(src1_r, 2, 3, vec0, vec1);
695 HEVC_PRED_PLANAR_16x2(src0_r, src0_l, tmp0, tmp1, vec0, vec1,
701 SPLATI_H2_SH(src1_r, 4, 5, vec0, vec1);
702 HEVC_PRED_PLANAR_16x2(src0_r, src0_l, tmp0, tmp1, vec0, vec1,
708 SPLATI_H2_SH(src1_r, 6, 7, vec0, vec1);
709 HEVC_PRED_PLANAR_16x2(src0_r, src0_l, tmp0, tmp1, vec0, vec1,
715 SPLATI_H2_SH(src1_l, 0, 1, vec0, vec1);
716 HEVC_PRED_PLANAR_16x2(src0_r, src0_l, tmp0, tmp1, vec0, vec1,
722 SPLATI_H2_SH(src1_l, 2, 3, vec0, vec1);
723 HEVC_PRED_PLANAR_16x2(src0_r, src0_l, tmp0, tmp1, vec0, vec1,
729 SPLATI_H2_SH(src1_l, 4, 5, vec0, vec1);
730 HEVC_PRED_PLANAR_16x2(src0_r, src0_l, tmp0, tmp1, vec0, vec1,
736 SPLATI_H2_SH(src1_l, 6, 7, vec0, vec1);
737 HEVC_PRED_PLANAR_16x2(src0_r, src0_l, tmp0, tmp1, vec0, vec1,
750 v8i16 vec0, vec1, res0, res1;
770 SPLATI_H2_SH(src1_r, 0, 1, vec0, vec1);
771 HEVC_PRED_PLANAR_16x2(src0_r, src0_l, tmp0, tmp1, vec0, vec1,
777 SPLATI_H2_SH(src1_r, 2, 3, vec0, vec1);
778 HEVC_PRED_PLANAR_16x2(src0_r, src0_l, tmp0, tmp1, vec0, vec1,
784 SPLATI_H2_SH(src1_r, 4, 5, vec0, vec1);
785 HEVC_PRED_PLANAR_16x2(src0_r, src0_l, tmp0, tmp1, vec0, vec1,
791 SPLATI_H2_SH(src1_r, 6, 7, vec0, vec1);
792 HEVC_PRED_PLANAR_16x2(src0_r, src0_l, tmp0, tmp1, vec0, vec1,
798 SPLATI_H2_SH(src1_l, 0, 1, vec0, vec1);
799 HEVC_PRED_PLANAR_16x2(src0_r, src0_l, tmp0, tmp1, vec0, vec1,
805 SPLATI_H2_SH(src1_l, 2, 3, vec0, vec1);
806 HEVC_PRED_PLANAR_16x2(src0_r, src0_l, tmp0, tmp1, vec0, vec1,
812 SPLATI_H2_SH(src1_l, 4, 5, vec0, vec1);
813 HEVC_PRED_PLANAR_16x2(src0_r, src0_l, tmp0, tmp1, vec0, vec1,
819 SPLATI_H2_SH(src1_l, 6, 7, vec0, vec1);
820 HEVC_PRED_PLANAR_16x2(src0_r, src0_l, tmp0, tmp1, vec0, vec1,
833 v8i16 vec0, vec1, res0, res1, tmp0, tmp1;
852 SPLATI_H2_SH(src1_r, 0, 1, vec0, vec1);
853 HEVC_PRED_PLANAR_16x2(src0_r, src0_l, tmp0, tmp1, vec0, vec1,
859 SPLATI_H2_SH(src1_r, 2, 3, vec0, vec1);
860 HEVC_PRED_PLANAR_16x2(src0_r, src0_l, tmp0, tmp1, vec0, vec1,
866 SPLATI_H2_SH(src1_r, 4, 5, vec0, vec1);
867 HEVC_PRED_PLANAR_16x2(src0_r, src0_l, tmp0, tmp1, vec0, vec1,
873 SPLATI_H2_SH(src1_r, 6, 7, vec0, vec1);
874 HEVC_PRED_PLANAR_16x2(src0_r, src0_l, tmp0, tmp1, vec0, vec1,
880 SPLATI_H2_SH(src1_l, 0, 1, vec0, vec1);
881 HEVC_PRED_PLANAR_16x2(src0_r, src0_l, tmp0, tmp1, vec0, vec1,
887 SPLATI_H2_SH(src1_l, 2, 3, vec0, vec1);
888 HEVC_PRED_PLANAR_16x2(src0_r, src0_l, tmp0, tmp1, vec0, vec1,
894 SPLATI_H2_SH(src1_l, 4, 5, vec0, vec1);
895 HEVC_PRED_PLANAR_16x2(src0_r, src0_l, tmp0, tmp1, vec0, vec1,
901 SPLATI_H2_SH(src1_l, 6, 7, vec0, vec1);
902 HEVC_PRED_PLANAR_16x2(src0_r, src0_l, tmp0, tmp1, vec0, vec1,
1908 v16u8 vec0;
2044 vec0 = (v16u8) __msa_ldi_b(128);
2046 ST_UB4(vec0, vec0, vec0, vec0, left, 16);
2048 ST_UB4(vec0, vec0, vec0, vec0, top, 16);
2057 vec0 = LD_UB(src - stride);
2058 ST_UB(vec0, top);
2061 vec0 = LD_UB(src - stride + 16);
2062 ST_UB(vec0, (top + 16));
2227 vec0 = (v16u8) __msa_fill_b(left[-1]);
2229 ST_UB(vec0, left);
2233 vec0 = (v16u8) __msa_fill_b(left[15]);
2235 ST_UB(vec0, (left + 16));
2313 vec0 = (v16u8) __msa_fill_b(left[15]);
2315 ST_UB(vec0, (left + 16));
2318 vec0 = (v16u8) __msa_fill_b(left[-1]);
2320 ST_UB2(vec0, vec0, left, 16);
2326 vec0 = (v16u8) __msa_fill_b(left[-1]);
2328 ST_UB2(vec0, vec0, left, 16);
2333 vec0 = (v16u8) __msa_fill_b(top[16]);
2335 ST_UB(vec0, top);
2339 ST_UB2(vec0, vec0, left, 16);
2346 vec0 = (v16u8) __msa_ldi_b(128);
2348 ST_UB2(vec0, vec0, top, 16);
2349 ST_UB2(vec0, vec0, left, 16);
2354 vec0 = (v16u8) __msa_fill_b(left[16]);
2355 ST_UB(vec0, left);
2361 vec0 = (v16u8) __msa_fill_b(left[-1]);
2362 ST_UB(vec0, top);
2365 vec0 = (v16u8) __msa_fill_b(top[15]);
2366 ST_UB(vec0, (top + 16));
2421 v16u8 vec0, vec1;
2560 vec0 = (v16u8) __msa_ldi_b(128);
2562 ST_UB4(vec0, vec0, vec0, vec0, left, 16);
2563 ST_UB4(vec0, vec0, vec0, vec0, top, 16);
2572 LD_UB2(src - stride, 16, vec0, vec1);
2573 ST_UB2(vec0, vec1, top, 16);
2577 LD_UB2(src - stride + 32, 16, vec0, vec1);
2578 ST_UB2(vec0, vec1, (top + 32), 16);
2742 vec0 = (v16u8) __msa_fill_b(left[-1]);
2744 ST_UB2(vec0, vec0, left, 16);
2747 vec0 = (v16u8) __msa_fill_b(left[31]);
2749 ST_UB2(vec0, vec0, (left + 32), 16);
2827 vec0 = (v16u8) __msa_fill_b(left[31]);
2829 ST_UB2(vec0, vec0, (left + 32), 16);
2831 vec0 = (v16u8) __msa_fill_b(left[-1]);
2833 ST_UB4(vec0, vec0, vec0, vec0, left, 16);
2839 vec0 = (v16u8) __msa_fill_b(left[-1]);
2841 ST_UB4(vec0, vec0, vec0, vec0, left, 16);
2846 vec0 = (v16u8) __msa_fill_b(top[32]);
2848 ST_UB2(vec0, vec0, top, 16);
2852 ST_UB4(vec0, vec0, vec0, vec0, left, 16);
2860 vec0 = (v16u8) __msa_ldi_b(128);
2862 ST_UB4(vec0, vec0, vec0, vec0, top, 16);
2863 ST_UB4(vec0, vec0, vec0, vec0, left, 16);
2868 vec0 = (v16u8) __msa_fill_b(left[32]);
2870 ST_UB2(vec0, vec0, left, 16);
2876 vec0 = (v16u8) __msa_fill_b(left[-1]);
2878 ST_UB2(vec0, vec0, top, 16);
2881 vec0 = (v16u8) __msa_fill_b(top[31]);
2883 ST_UB2(vec0, vec0, (top + 32), 16);
2949 vec0 = (v16u8) __msa_pckev_b((v16i8) res1, (v16i8) res0);
2952 ST_UB2(vec0, vec1, filtered_top, 16);
2977 vec0 = (v16u8) __msa_pckev_b((v16i8) res1, (v16i8) res0);
2980 ST_UB2(vec0, vec1, (filtered_top + 32), 16);
3008 vec0 = (v16u8) __msa_pckev_b((v16i8) res1, (v16i8) res0);
3011 ST_UB2(vec0, vec1, left, 16);
3036 vec0 = (v16u8) __msa_pckev_b((v16i8) res1, (v16i8) res0);
3039 ST_UB2(vec0, vec1, (left + 32), 16);