Lines Matching refs:dst
26 put_pixels8_l2_8_lsx(uint8_t *dst, const uint8_t *src1, const uint8_t *src2,
57 "vstelm.d $vr0, %[dst], 0, 0 \n\t"
58 "add.d %[dst], %[dst], %[dstStride] \n\t"
59 "vstelm.d $vr1, %[dst], 0, 0 \n\t"
60 "add.d %[dst], %[dst], %[dstStride] \n\t"
61 "vstelm.d $vr2, %[dst], 0, 0 \n\t"
62 "add.d %[dst], %[dst], %[dstStride] \n\t"
63 "vstelm.d $vr3, %[dst], 0, 0 \n\t"
64 "add.d %[dst], %[dst], %[dstStride] \n\t"
67 : [dst]"+&r"(dst), [src2]"+&r"(src2), [src1]"+&r"(src1),
79 put_pixels16_l2_8_lsx(uint8_t *dst, const uint8_t *src1, const uint8_t *src2,
114 "vst $vr0, %[dst], 0 \n\t"
115 "vstx $vr1, %[dst], %[dstStride] \n\t"
116 "vstx $vr2, %[dst], %[dststride2] \n\t"
117 "vstx $vr3, %[dst], %[dststride3] \n\t"
118 "add.d %[dst], %[dst], %[dststride4] \n\t"
121 : [dst]"+&r"(dst), [src2]"+&r"(src2), [src1]"+&r"(src1),
160 "st.d %[tmp0], %[dst], 0x0 \n\t"
161 "stx.d %[tmp1], %[dst], %[stride] \n\t"
162 "stx.d %[tmp2], %[dst], %[stride2] \n\t"
163 "stx.d %[tmp3], %[dst], %[stride3] \n\t"
164 "add.d %[dst], %[dst], %[stride4] \n\t"
165 "st.d %[tmp4], %[dst], 0x0 \n\t"
166 "stx.d %[tmp5], %[dst], %[stride] \n\t"
167 "stx.d %[tmp6], %[dst], %[stride2] \n\t"
168 "stx.d %[tmp7], %[dst], %[stride3] \n\t"
169 "add.d %[dst], %[dst], %[stride4] \n\t"
178 "st.d %[tmp0], %[dst], 0x0 \n\t"
179 "add.d %[dst], %[dst], %[stride] \n\t"
186 [dst]"+&r"(block), [src]"+&r"(pixels),
221 "vst $vr0, %[dst], 0x0 \n\t"
222 "vstx $vr1, %[dst], %[stride] \n\t"
223 "vstx $vr2, %[dst], %[stride2] \n\t"
224 "vstx $vr3, %[dst], %[stride3] \n\t"
225 "add.d %[dst], %[dst], %[stride4] \n\t"
226 "vst $vr4, %[dst], 0x0 \n\t"
227 "vstx $vr5, %[dst], %[stride] \n\t"
228 "vstx $vr6, %[dst], %[stride2] \n\t"
229 "vstx $vr7, %[dst], %[stride3] \n\t"
230 "add.d %[dst], %[dst], %[stride4] \n\t"
239 "vst $vr0, %[dst], 0x0 \n\t"
240 "add.d %[dst], %[dst], %[stride] \n\t"
243 : [dst]"+&r"(block), [src]"+&r"(pixels),
282 uint8_t *dst, int32_t dst_stride)
302 __lasx_xvstelm_d(src0, dst, 0, 0);
303 __lasx_xvstelm_d(src0, dst, 8, 1);
304 dst += dst_stride;
305 __lasx_xvstelm_d(src0, dst, 0, 2);
306 __lasx_xvstelm_d(src0, dst, 8, 3);
307 dst += dst_stride;
308 __lasx_xvstelm_d(src1, dst, 0, 0);
309 __lasx_xvstelm_d(src1, dst, 8, 1);
310 dst += dst_stride;
311 __lasx_xvstelm_d(src1, dst, 0, 2);
312 __lasx_xvstelm_d(src1, dst, 8, 3);
313 dst += dst_stride;
327 __lasx_xvstelm_d(src0, dst, 0, 0);
328 __lasx_xvstelm_d(src0, dst, 8, 1);
329 dst += dst_stride;
330 __lasx_xvstelm_d(src0, dst, 0, 2);
331 __lasx_xvstelm_d(src0, dst, 8, 3);
332 dst += dst_stride;
333 __lasx_xvstelm_d(src1, dst, 0, 0);
334 __lasx_xvstelm_d(src1, dst, 8, 1);
335 dst += dst_stride;
336 __lasx_xvstelm_d(src1, dst, 0, 2);
337 __lasx_xvstelm_d(src1, dst, 8, 3);
338 dst += dst_stride;
352 __lasx_xvstelm_d(src0, dst, 0, 0);
353 __lasx_xvstelm_d(src0, dst, 8, 1);
354 dst += dst_stride;
355 __lasx_xvstelm_d(src0, dst, 0, 2);
356 __lasx_xvstelm_d(src0, dst, 8, 3);
357 dst += dst_stride;
358 __lasx_xvstelm_d(src1, dst, 0, 0);
359 __lasx_xvstelm_d(src1, dst, 8, 1);
360 dst += dst_stride;
361 __lasx_xvstelm_d(src1, dst, 0, 2);
362 __lasx_xvstelm_d(src1, dst, 8, 3);
363 dst += dst_stride;
376 __lasx_xvstelm_d(src0, dst, 0, 0);
377 __lasx_xvstelm_d(src0, dst, 8, 1);
378 dst += dst_stride;
379 __lasx_xvstelm_d(src0, dst, 0, 2);
380 __lasx_xvstelm_d(src0, dst, 8, 3);
381 dst += dst_stride;
382 __lasx_xvstelm_d(src1, dst, 0, 0);
383 __lasx_xvstelm_d(src1, dst, 8, 1);
384 dst += dst_stride;
385 __lasx_xvstelm_d(src1, dst, 0, 2);
386 __lasx_xvstelm_d(src1, dst, 8, 3);
391 uint8_t *dst, int32_t dst_stride)
411 __lasx_xvstelm_d(src0, dst, 0, 0);
412 __lasx_xvstelm_d(src0, dst, 8, 1);
413 dst += dst_stride;
414 __lasx_xvstelm_d(src0, dst, 0, 2);
415 __lasx_xvstelm_d(src0, dst, 8, 3);
416 dst += dst_stride;
417 __lasx_xvstelm_d(src1, dst, 0, 0);
418 __lasx_xvstelm_d(src1, dst, 8, 1);
419 dst += dst_stride;
420 __lasx_xvstelm_d(src1, dst, 0, 2);
421 __lasx_xvstelm_d(src1, dst, 8, 3);
422 dst += dst_stride;
435 __lasx_xvstelm_d(src0, dst, 0, 0);
436 __lasx_xvstelm_d(src0, dst, 8, 1);
437 dst += dst_stride;
438 __lasx_xvstelm_d(src0, dst, 0, 2);
439 __lasx_xvstelm_d(src0, dst, 8, 3);
440 dst += dst_stride;
441 __lasx_xvstelm_d(src1, dst, 0, 0);
442 __lasx_xvstelm_d(src1, dst, 8, 1);
443 dst += dst_stride;
444 __lasx_xvstelm_d(src1, dst, 0, 2);
445 __lasx_xvstelm_d(src1, dst, 8, 3);
460 uint8_t *dst, int32_t dst_stride)
501 __lasx_xvstelm_d(src0, dst, 0, 0);
502 __lasx_xvstelm_d(src0, dst, 8, 1);
503 dst += dst_stride;
504 __lasx_xvstelm_d(src0, dst, 0, 2);
505 __lasx_xvstelm_d(src0, dst, 8, 3);
506 dst += dst_stride;
507 __lasx_xvstelm_d(src2, dst, 0, 0);
508 __lasx_xvstelm_d(src2, dst, 8, 1);
509 dst += dst_stride;
510 __lasx_xvstelm_d(src2, dst, 0, 2);
511 __lasx_xvstelm_d(src2, dst, 8, 3);
512 dst += dst_stride;
513 __lasx_xvstelm_d(src4, dst, 0, 0);
514 __lasx_xvstelm_d(src4, dst, 8, 1);
515 dst += dst_stride;
516 __lasx_xvstelm_d(src4, dst, 0, 2);
517 __lasx_xvstelm_d(src4, dst, 8, 3);
518 dst += dst_stride;
519 __lasx_xvstelm_d(src6, dst, 0, 0);
520 __lasx_xvstelm_d(src6, dst, 8, 1);
521 dst += dst_stride;
522 __lasx_xvstelm_d(src6, dst, 0, 2);
523 __lasx_xvstelm_d(src6, dst, 8, 3);
524 dst += dst_stride;
525 __lasx_xvstelm_d(src8, dst, 0, 0);
526 __lasx_xvstelm_d(src8, dst, 8, 1);
527 dst += dst_stride;
528 __lasx_xvstelm_d(src8, dst, 0, 2);
529 __lasx_xvstelm_d(src8, dst, 8, 3);
530 dst += dst_stride;
531 __lasx_xvstelm_d(src10, dst, 0, 0);
532 __lasx_xvstelm_d(src10, dst, 8, 1);
533 dst += dst_stride;
534 __lasx_xvstelm_d(src10, dst, 0, 2);
535 __lasx_xvstelm_d(src10, dst, 8, 3);
536 dst += dst_stride;
537 __lasx_xvstelm_d(src12, dst, 0, 0);
538 __lasx_xvstelm_d(src12, dst, 8, 1);
539 dst += dst_stride;
540 __lasx_xvstelm_d(src12, dst, 0, 2);
541 __lasx_xvstelm_d(src12, dst, 8, 3);
542 dst += dst_stride;
543 __lasx_xvstelm_d(src14, dst, 0, 0);
544 __lasx_xvstelm_d(src14, dst, 8, 1);
545 dst += dst_stride;
546 __lasx_xvstelm_d(src14, dst, 0, 2);
547 __lasx_xvstelm_d(src14, dst, 8, 3);
552 uint8_t *dst, int32_t dst_stride)
577 __lasx_xvstelm_d(src0, dst, 0, 0);
578 __lasx_xvstelm_d(src0, dst, 8, 1);
579 dst += dst_stride;
580 __lasx_xvstelm_d(src0, dst, 0, 2);
581 __lasx_xvstelm_d(src0, dst, 8, 3);
582 dst += dst_stride;
583 __lasx_xvstelm_d(src2, dst, 0, 0);
584 __lasx_xvstelm_d(src2, dst, 8, 1);
585 dst += dst_stride;
586 __lasx_xvstelm_d(src2, dst, 0, 2);
587 __lasx_xvstelm_d(src2, dst, 8, 3);
588 dst += dst_stride;
589 __lasx_xvstelm_d(src4, dst, 0, 0);
590 __lasx_xvstelm_d(src4, dst, 8, 1);
591 dst += dst_stride;
592 __lasx_xvstelm_d(src4, dst, 0, 2);
593 __lasx_xvstelm_d(src4, dst, 8, 3);
594 dst += dst_stride;
595 __lasx_xvstelm_d(src6, dst, 0, 0);
596 __lasx_xvstelm_d(src6, dst, 8, 1);
597 dst += dst_stride;
598 __lasx_xvstelm_d(src6, dst, 0, 2);
599 __lasx_xvstelm_d(src6, dst, 8, 3);
614 uint8_t *dst, int32_t dst_stride)
673 __lasx_xvstelm_d(sum0, dst, 0, 0);
674 __lasx_xvstelm_d(sum0, dst, 8, 1);
675 dst += dst_stride;
676 __lasx_xvstelm_d(sum1, dst, 0, 0);
677 __lasx_xvstelm_d(sum1, dst, 8, 1);
678 dst += dst_stride;
679 __lasx_xvstelm_d(sum2, dst, 0, 0);
680 __lasx_xvstelm_d(sum2, dst, 8, 1);
681 dst += dst_stride;
682 __lasx_xvstelm_d(sum3, dst, 0, 0);
683 __lasx_xvstelm_d(sum3, dst, 8, 1);
684 dst += dst_stride;
685 __lasx_xvstelm_d(sum0, dst, 0, 2);
686 __lasx_xvstelm_d(sum0, dst, 8, 3);
687 dst += dst_stride;
688 __lasx_xvstelm_d(sum1, dst, 0, 2);
689 __lasx_xvstelm_d(sum1, dst, 8, 3);
690 dst += dst_stride;
691 __lasx_xvstelm_d(sum2, dst, 0, 2);
692 __lasx_xvstelm_d(sum2, dst, 8, 3);
693 dst += dst_stride;
694 __lasx_xvstelm_d(sum3, dst, 0, 2);
695 __lasx_xvstelm_d(sum3, dst, 8, 3);
696 dst += dst_stride;
747 __lasx_xvstelm_d(sum0, dst, 0, 0);
748 __lasx_xvstelm_d(sum0, dst, 8, 1);
749 dst += dst_stride;
750 __lasx_xvstelm_d(sum1, dst, 0, 0);
751 __lasx_xvstelm_d(sum1, dst, 8, 1);
752 dst += dst_stride;
753 __lasx_xvstelm_d(sum2, dst, 0, 0);
754 __lasx_xvstelm_d(sum2, dst, 8, 1);
755 dst += dst_stride;
756 __lasx_xvstelm_d(sum3, dst, 0, 0);
757 __lasx_xvstelm_d(sum3, dst, 8, 1);
758 dst += dst_stride;
759 __lasx_xvstelm_d(sum0, dst, 0, 2);
760 __lasx_xvstelm_d(sum0, dst, 8, 3);
761 dst += dst_stride;
762 __lasx_xvstelm_d(sum1, dst, 0, 2);
763 __lasx_xvstelm_d(sum1, dst, 8, 3);
764 dst += dst_stride;
765 __lasx_xvstelm_d(sum2, dst, 0, 2);
766 __lasx_xvstelm_d(sum2, dst, 8, 3);
767 dst += dst_stride;
768 __lasx_xvstelm_d(sum3, dst, 0, 2);
769 __lasx_xvstelm_d(sum3, dst, 8, 3);
774 uint8_t *dst, int32_t dst_stride)
833 __lasx_xvstelm_d(sum0, dst, 0, 0);
834 __lasx_xvstelm_d(sum0, dst, 8, 1);
835 dst += dst_stride;
836 __lasx_xvstelm_d(sum1, dst, 0, 0);
837 __lasx_xvstelm_d(sum1, dst, 8, 1);
838 dst += dst_stride;
839 __lasx_xvstelm_d(sum2, dst, 0, 0);
840 __lasx_xvstelm_d(sum2, dst, 8, 1);
841 dst += dst_stride;
842 __lasx_xvstelm_d(sum3, dst, 0, 0);
843 __lasx_xvstelm_d(sum3, dst, 8, 1);
844 dst += dst_stride;
845 __lasx_xvstelm_d(sum0, dst, 0, 2);
846 __lasx_xvstelm_d(sum0, dst, 8, 3);
847 dst += dst_stride;
848 __lasx_xvstelm_d(sum1, dst, 0, 2);
849 __lasx_xvstelm_d(sum1, dst, 8, 3);
850 dst += dst_stride;
851 __lasx_xvstelm_d(sum2, dst, 0, 2);
852 __lasx_xvstelm_d(sum2, dst, 8, 3);
853 dst += dst_stride;
854 __lasx_xvstelm_d(sum3, dst, 0, 2);
855 __lasx_xvstelm_d(sum3, dst, 8, 3);
871 uint8_t *dst, int32_t dst_stride)
908 __lasx_xvstelm_d(src0, dst, 0, 0);
909 __lasx_xvstelm_d(src0, dst + dst_stride, 0, 1);
910 __lasx_xvstelm_d(src0, dst + dst_stride_2x, 0, 2);
911 __lasx_xvstelm_d(src0, dst + dst_stride_3x, 0, 3);
912 dst += dst_stride_4x;
913 __lasx_xvstelm_d(src1, dst, 0, 0);
914 __lasx_xvstelm_d(src1, dst + dst_stride, 0, 1);
915 __lasx_xvstelm_d(src1, dst + dst_stride_2x, 0, 2);
916 __lasx_xvstelm_d(src1, dst + dst_stride_3x, 0, 3);
921 uint8_t *dst, int32_t dst_stride)
941 __lasx_xvstelm_d(src0, dst, 0, 0);
942 __lasx_xvstelm_d(src0, dst + dst_stride, 0, 1);
943 __lasx_xvstelm_d(src0, dst + dst_stride_2x, 0, 2);
944 __lasx_xvstelm_d(src0, dst + dst_stride_3x, 0, 3);
958 uint8_t *dst, int32_t dst_stride)
987 __lasx_xvstelm_d(src0, dst, 0, 0);
988 __lasx_xvstelm_d(src0, dst + dst_stride, 0, 1);
989 __lasx_xvstelm_d(src0, dst + dst_stride_2x, 0, 2);
990 __lasx_xvstelm_d(src0, dst + dst_stride_3x, 0, 3);
991 dst += dst_stride_4x;
992 __lasx_xvstelm_d(src1, dst, 0, 0);
993 __lasx_xvstelm_d(src1, dst + dst_stride, 0, 1);
994 __lasx_xvstelm_d(src1, dst + dst_stride_2x, 0, 2);
995 __lasx_xvstelm_d(src1, dst + dst_stride_3x, 0, 3);
999 uint8_t *dst, int32_t dst_stride)
1016 __lasx_xvstelm_d(src0, dst, 0, 0);
1017 __lasx_xvstelm_d(src0, dst + dst_stride, 0, 1);
1018 __lasx_xvstelm_d(src0, dst + dst_stride_2x, 0, 2);
1019 __lasx_xvstelm_d(src0, dst + dst_stride_3x, 0, 3);
1033 uint8_t *dst, int32_t dst_stride)
1084 __lasx_xvstelm_d(sum0, dst, 0, 0);
1085 __lasx_xvstelm_d(sum0, dst + dst_stride, 0, 2);
1086 __lasx_xvstelm_d(sum0, dst + dst_stride_2x, 0, 1);
1087 __lasx_xvstelm_d(sum0, dst + dst_stride_3x, 0, 3);
1088 dst += dst_stride_4x;
1089 __lasx_xvstelm_d(sum1, dst, 0, 0);
1090 __lasx_xvstelm_d(sum1, dst + dst_stride, 0, 2);
1091 __lasx_xvstelm_d(sum1, dst + dst_stride_2x, 0, 1);
1092 __lasx_xvstelm_d(sum1, dst + dst_stride_3x, 0, 3);
1096 uint8_t *dst, int32_t dst_stride)
1128 __lasx_xvstelm_d(sum0, dst, 0, 0);
1129 __lasx_xvstelm_d(sum0, dst + dst_stride, 0, 2);
1130 __lasx_xvstelm_d(sum0, dst + dst_stride_2x, 0, 1);
1131 __lasx_xvstelm_d(sum0, dst + dst_stride_3x, 0, 3);
1145 uint8_t *dst, int32_t dst_stride,
1204 __lasx_xvstelm_d(sum0, dst, 0, 0);
1205 __lasx_xvstelm_d(sum0, dst, 8, 1);
1206 dst += dst_stride;
1207 __lasx_xvstelm_d(sum1, dst, 0, 0);
1208 __lasx_xvstelm_d(sum1, dst, 8, 1);
1209 dst += dst_stride;
1210 __lasx_xvstelm_d(sum2, dst, 0, 0);
1211 __lasx_xvstelm_d(sum2, dst, 8, 1);
1212 dst += dst_stride;
1213 __lasx_xvstelm_d(sum3, dst, 0, 0);
1214 __lasx_xvstelm_d(sum3, dst, 8, 1);
1215 dst += dst_stride;
1216 __lasx_xvstelm_d(sum0, dst, 0, 2);
1217 __lasx_xvstelm_d(sum0, dst, 8, 3);
1218 dst += dst_stride;
1219 __lasx_xvstelm_d(sum1, dst, 0, 2);
1220 __lasx_xvstelm_d(sum1, dst, 8, 3);
1221 dst += dst_stride;
1222 __lasx_xvstelm_d(sum2, dst, 0, 2);
1223 __lasx_xvstelm_d(sum2, dst, 8, 3);
1224 dst += dst_stride;
1225 __lasx_xvstelm_d(sum3, dst, 0, 2);
1226 __lasx_xvstelm_d(sum3, dst, 8, 3);
1227 dst += dst_stride;
1238 uint8_t *dst, int32_t dst_stride,
1273 __lasx_xvstelm_d(sum0, dst, 0, 0);
1274 __lasx_xvstelm_d(sum0, dst + dst_stride, 0, 2);
1275 __lasx_xvstelm_d(sum0, dst + dst_stride_2x, 0, 1);
1276 __lasx_xvstelm_d(sum0, dst + dst_stride_3x, 0, 3);
1277 dst += dst_stride_4x;