Lines Matching refs:temp1
49 __m128i temp0, temp1;
128 temp1 = __lsx_vadd_h(p3_src, p2_src);
129 temp1 = __lsx_vslli_h(temp1, 1);
130 DUP2_ARG2(__lsx_vadd_h, temp1, p2_src, temp1, temp0, temp1, temp1);
131 temp1 = __lsx_vsrari_h(temp1, 3);
132 temp2 = __lsx_vsub_h(temp1, p2_src);
136 temp1 = __lsx_vadd_h(temp0, p2_src);
137 temp1 = __lsx_vsrari_h(temp1, 2);
138 temp2 = __lsx_vsub_h(temp1, p1_src);
142 temp1 = __lsx_vslli_h(temp0, 1);
143 DUP2_ARG2(__lsx_vadd_h, temp1, p2_src, temp1, q1_src,
144 temp1, temp1);
145 temp1 = __lsx_vsrari_h(temp1, 3);
146 temp2 = __lsx_vsub_h(temp1, p0_src);
158 temp1 = __lsx_vadd_h(q3_src, q2_src);
159 temp1 = __lsx_vslli_h(temp1, 1);
160 DUP2_ARG2(__lsx_vadd_h, temp1, q2_src, temp1, temp0, temp1, temp1);
161 temp1 = __lsx_vsrari_h(temp1, 3);
162 temp2 = __lsx_vsub_h(temp1, q2_src);
166 temp1 = __lsx_vadd_h(temp0, q2_src);
167 temp1 = __lsx_vsrari_h(temp1, 2);
168 temp2 = __lsx_vsub_h(temp1, q1_src);
173 DUP2_ARG2(__lsx_vadd_h, temp0, p1_src, temp1, q2_src,
174 temp1, temp1);
175 temp1 = __lsx_vsrari_h(temp1, 3);
176 temp2 = __lsx_vsub_h(temp1, q0_src);
215 temp1 = __lsx_vadd_h(__lsx_vslli_h(tc_pos, 3),
218 abs_delta0 = __lsx_vsle_hu(temp1, abs_delta0);
290 temp1 = __lsx_vadd_h(p3_src, p2_src);
291 temp1 = __lsx_vslli_h(temp1, 1);
292 DUP2_ARG2(__lsx_vadd_h, temp1, p2_src, temp1, temp0, temp1, temp1);
293 temp1 = __lsx_vsrari_h(temp1, 3);
294 temp2 = __lsx_vsub_h(temp1, p2_src);
298 temp1 = __lsx_vadd_h(temp0, p2_src);
299 temp1 = __lsx_vsrari_h(temp1, 2);
300 temp2 = __lsx_vsub_h(temp1, p1_src);
304 temp1 = __lsx_vslli_h(temp0, 1);
305 DUP2_ARG2(__lsx_vadd_h, temp1, p2_src, temp1, q1_src, temp1, temp1);
306 temp1 = __lsx_vsrari_h(temp1, 3);
307 temp2 = __lsx_vsub_h(temp1, p0_src);
319 temp1 = __lsx_vadd_h(q3_src, q2_src);
320 temp1 = __lsx_vslli_h(temp1, 1);
321 DUP2_ARG2(__lsx_vadd_h, temp1, q2_src, temp1, temp0, temp1, temp1);
322 temp1 = __lsx_vsrari_h(temp1, 3);
323 temp2 = __lsx_vsub_h(temp1, q2_src);
327 temp1 = __lsx_vadd_h(temp0, q2_src);
328 temp1 = __lsx_vsrari_h(temp1, 2);
329 temp2 = __lsx_vsub_h(temp1, q1_src);
333 temp1 = __lsx_vslli_h(temp0, 1);
334 DUP2_ARG2(__lsx_vadd_h, temp1, p1_src, temp1, q2_src, temp1, temp1);
335 temp1 = __lsx_vsrari_h(temp1, 3);
336 temp2 = __lsx_vsub_h(temp1, q0_src);
360 temp1 = __lsx_vadd_h(__lsx_vslli_h(tc_pos, 3),
363 abs_delta0 = __lsx_vsle_hu(temp1, abs_delta0);
459 __m128i temp0, temp1;
548 temp1 = __lsx_vadd_h(p3_src, p2_src);
549 temp1 = __lsx_vslli_h(temp1, 1);
550 DUP2_ARG2(__lsx_vadd_h, temp1, p2_src, temp1, temp0, temp1, temp1);
551 temp1 = __lsx_vsrari_h(temp1, 3);
552 temp2 = __lsx_vsub_h(temp1, p2_src);
556 temp1 = __lsx_vadd_h(temp0, p2_src);
557 temp1 = __lsx_vsrari_h(temp1, 2);
558 temp2 = __lsx_vsub_h(temp1, p1_src);
562 temp1 = __lsx_vslli_h(temp0, 1);
563 DUP2_ARG2(__lsx_vadd_h, temp1, p2_src, temp1, q1_src, temp1, temp1);
564 temp1 = __lsx_vsrari_h(temp1, 3);
565 temp2 = __lsx_vsub_h(temp1, p0_src);
577 temp1 = __lsx_vadd_h(q3_src, q2_src);
578 temp1 = __lsx_vslli_h(temp1, 1);
579 DUP2_ARG2(__lsx_vadd_h, temp1, q2_src, temp1, temp0, temp1, temp1);
580 temp1 = __lsx_vsrari_h(temp1, 3);
581 temp2 = __lsx_vsub_h(temp1, q2_src);
585 temp1 = __lsx_vadd_h(temp0, q2_src);
586 temp1 = __lsx_vsrari_h(temp1, 2);
587 temp2 = __lsx_vsub_h(temp1, q1_src);
591 temp1 = __lsx_vslli_h(temp0, 1);
592 DUP2_ARG2(__lsx_vadd_h, temp1, p1_src, temp1, q2_src, temp1, temp1);
593 temp1 = __lsx_vsrari_h(temp1, 3);
594 temp2 = __lsx_vsub_h(temp1, q0_src);
614 temp1 = __lsx_vadd_h(__lsx_vslli_h(tc_pos, 3),
617 abs_delta0 = __lsx_vsle_hu(temp1, abs_delta0);
696 temp1 = __lsx_vadd_h(p3_src, p2_src);
697 temp1 = __lsx_vslli_h(temp1, 1);
698 DUP2_ARG2(__lsx_vadd_h, temp1, p2_src, temp1, temp0, temp1, temp1);
699 temp1 = __lsx_vsrari_h(temp1, 3);
700 temp2 = __lsx_vsub_h(temp1, p2_src);
704 temp1 = __lsx_vadd_h(temp0, p2_src);
705 temp1 = __lsx_vsrari_h(temp1, 2);
706 temp2 = __lsx_vsub_h(temp1, p1_src);
710 temp1 = __lsx_vslli_h(temp0, 1);
711 DUP2_ARG2(__lsx_vadd_h, temp1, p2_src, temp1, q1_src, temp1, temp1);
712 temp1 = __lsx_vsrari_h(temp1, 3);
713 temp2 = __lsx_vsub_h(temp1, p0_src);
724 temp1 = __lsx_vadd_h(q3_src, q2_src);
725 temp1 = __lsx_vslli_h(temp1, 1);
726 DUP2_ARG2(__lsx_vadd_h, temp1, q2_src, temp1, temp0, temp1, temp1);
727 temp1 = __lsx_vsrari_h(temp1, 3);
728 temp2 = __lsx_vsub_h(temp1, q2_src);
732 temp1 = __lsx_vadd_h(temp0, q2_src);
733 temp1 = __lsx_vsrari_h(temp1, 2);
734 temp2 = __lsx_vsub_h(temp1, q1_src);
738 temp1 = __lsx_vslli_h(temp0, 1);
739 DUP2_ARG2(__lsx_vadd_h, temp1, p1_src, temp1, q2_src, temp1, temp1);
740 temp1 = __lsx_vsrari_h(temp1, 3);
741 temp2 = __lsx_vsub_h(temp1, q0_src);
762 temp1 = __lsx_vadd_h(__lsx_vslli_h(tc_pos, 3),
765 abs_delta0 = __lsx_vsle_hu(temp1, abs_delta0);
875 __m128i temp0, temp1, delta;
893 DUP2_ARG2(__lsx_vsub_h, q0, p0, p1, q1, temp0, temp1);
895 temp0 = __lsx_vadd_h(temp0, temp1);
903 temp1 = __lsx_vsub_h(q0, delta);
904 temp1 = __lsx_vclip255_h(temp1);
906 temp1 = __lsx_vbitsel_v(temp1, q0, q_is_pcm_vec);
909 DUP2_ARG3(__lsx_vbitsel_v, temp0, p0, tc_pos, temp1, q0, tc_pos,
910 temp0, temp1);
911 temp0 = __lsx_vpickev_b(temp1, temp0);
929 __m128i temp0, temp1, delta;
955 DUP2_ARG2(__lsx_vsub_h, q0, p0, p1, q1, temp0, temp1);
957 temp0 = __lsx_vadd_h(temp0, temp1);
962 temp1 = __lsx_vsub_h(q0, delta);
963 DUP2_ARG1(__lsx_vclip255_h, temp0, temp1, temp0, temp1);
966 DUP2_ARG3(__lsx_vbitsel_v, temp0, p0, p_is_pcm_vec, temp1, q0,
967 q_is_pcm_vec, temp0, temp1);
970 DUP2_ARG3(__lsx_vbitsel_v, temp0, p0, tc_pos, temp1, q0, tc_pos,
971 temp0, temp1);
972 temp0 = __lsx_vpackev_b(temp1, temp0);