Lines Matching refs:dst

70 void ff_vert_16x16_lsx(uint8_t *dst, ptrdiff_t dst_stride, const uint8_t *left,
78 LSX_ST_8(src0, src0, src0, src0, src0, src0, src0, src0, dst,
80 dst += stride4;
81 LSX_ST_8(src0, src0, src0, src0, src0, src0, src0, src0, dst,
85 void ff_vert_32x32_lsx(uint8_t *dst, ptrdiff_t dst_stride, const uint8_t *left,
93 __lsx_vst(src0, dst, 0);
94 __lsx_vst(src1, dst, 16);
95 dst += dst_stride;
99 void ff_hor_16x16_lsx(uint8_t *dst, ptrdiff_t dst_stride, const uint8_t *src,
124 LSX_ST_8(src0, src1, src2, src3, src4, src5, src6, src7, dst,
126 dst += stride4;
127 LSX_ST_8(src8, src9, src10, src11, src12, src13, src14, src15, dst,
131 void ff_hor_32x32_lsx(uint8_t *dst, ptrdiff_t dst_stride, const uint8_t *src,
172 dst, dst_stride);
174 dst, dst_stride);
176 dst, dst_stride);
178 dst, dst_stride);
181 void ff_dc_4x4_lsx(uint8_t *dst, ptrdiff_t dst_stride, const uint8_t *src_left,
194 __lsx_vstelm_w(dst0, dst, 0, 0);
195 dst += dst_stride;
196 __lsx_vstelm_w(dst0, dst, 0, 0);
197 dst += dst_stride;
198 __lsx_vstelm_w(dst0, dst, 0, 0);
199 dst += dst_stride;
200 __lsx_vstelm_w(dst0, dst, 0, 0);
204 void ff_dc_##dir##_4x4_lsx(uint8_t *dst, ptrdiff_t dst_stride, \
215 __lsx_vstelm_w(dst0, dst, 0, 0); \
216 dst += dst_stride; \
217 __lsx_vstelm_w(dst0, dst, 0, 0); \
218 dst += dst_stride; \
219 __lsx_vstelm_w(dst0, dst, 0, 0); \
220 dst += dst_stride; \
221 __lsx_vstelm_w(dst0, dst, 0, 0); \
226 void ff_dc_8x8_lsx(uint8_t *dst, ptrdiff_t dst_stride, const uint8_t *src_left,
240 __lsx_vstelm_d(dst0, dst, 0, 0);
241 dst += dst_stride;
242 __lsx_vstelm_d(dst0, dst, 0, 0);
243 dst += dst_stride;
244 __lsx_vstelm_d(dst0, dst, 0, 0);
245 dst += dst_stride;
246 __lsx_vstelm_d(dst0, dst, 0, 0);
247 dst += dst_stride;
248 __lsx_vstelm_d(dst0, dst, 0, 0);
249 dst += dst_stride;
250 __lsx_vstelm_d(dst0, dst, 0, 0);
251 dst += dst_stride;
252 __lsx_vstelm_d(dst0, dst, 0, 0);
253 dst += dst_stride;
254 __lsx_vstelm_d(dst0, dst, 0, 0);
258 void ff_dc_##dir##_8x8_lsx(uint8_t *dst, ptrdiff_t dst_stride, \
270 __lsx_vstelm_d(dst0, dst, 0, 0); \
271 dst += dst_stride; \
272 __lsx_vstelm_d(dst0, dst, 0, 0); \
273 dst += dst_stride; \
274 __lsx_vstelm_d(dst0, dst, 0, 0); \
275 dst += dst_stride; \
276 __lsx_vstelm_d(dst0, dst, 0, 0); \
277 dst += dst_stride; \
278 __lsx_vstelm_d(dst0, dst, 0, 0); \
279 dst += dst_stride; \
280 __lsx_vstelm_d(dst0, dst, 0, 0); \
281 dst += dst_stride; \
282 __lsx_vstelm_d(dst0, dst, 0, 0); \
283 dst += dst_stride; \
284 __lsx_vstelm_d(dst0, dst, 0, 0); \
290 void ff_dc_16x16_lsx(uint8_t *dst, ptrdiff_t dst_stride,
307 LSX_ST_8(dst0, dst0, dst0, dst0, dst0, dst0, dst0, dst0, dst,
309 dst += stride4;
310 LSX_ST_8(dst0, dst0, dst0, dst0, dst0, dst0, dst0, dst0, dst,
315 void ff_dc_##dir##_16x16_lsx(uint8_t *dst, ptrdiff_t dst_stride, \
331 LSX_ST_8(dst0, dst0, dst0, dst0, dst0, dst0, dst0, dst0, dst, \
333 dst += stride4; \
334 LSX_ST_8(dst0, dst0, dst0, dst0, dst0, dst0, dst0, dst0, dst, \
341 void ff_dc_32x32_lsx(uint8_t *dst, ptrdiff_t dst_stride,
358 dst, dst_stride);
360 dst, dst_stride);
362 dst, dst_stride);
364 dst, dst_stride);
368 void ff_dc_##dir##_32x32_lsx(uint8_t *dst, ptrdiff_t dst_stride, \
383 dst, dst_stride); \
385 dst, dst_stride); \
387 dst, dst_stride); \
389 dst, dst_stride); \
396 void ff_dc_##val##_16x16_lsx(uint8_t *dst, ptrdiff_t dst_stride, \
404 LSX_ST_8(out, out, out, out, out, out, out, out, dst, \
406 dst += stride4; \
407 LSX_ST_8(out, out, out, out, out, out, out, out, dst, \
416 void ff_dc_##val##_32x32_lsx(uint8_t *dst, ptrdiff_t dst_stride, \
421 LSX_ST_8X16(out, out, out, out, out, out, out, out, dst, dst_stride);\
422 LSX_ST_8X16(out, out, out, out, out, out, out, out, dst, dst_stride);\
423 LSX_ST_8X16(out, out, out, out, out, out, out, out, dst, dst_stride);\
424 LSX_ST_8X16(out, out, out, out, out, out, out, out, dst, dst_stride);\
431 void ff_tm_4x4_lsx(uint8_t *dst, ptrdiff_t dst_stride,
452 __lsx_vstelm_w(dst0, dst, 0, 0);
453 dst += dst_stride;
454 __lsx_vstelm_w(dst0, dst, 0, 2);
455 dst += dst_stride;
456 __lsx_vstelm_w(dst1, dst, 0, 0);
457 dst += dst_stride;
458 __lsx_vstelm_w(dst1, dst, 0, 2);
461 void ff_tm_8x8_lsx(uint8_t *dst, ptrdiff_t dst_stride,
493 __lsx_vstelm_d(src0, dst, 0, 0);
494 dst += dst_stride;
495 __lsx_vstelm_d(src0, dst, 0, 1);
496 dst += dst_stride;
497 __lsx_vstelm_d(src1, dst, 0, 0);
498 dst += dst_stride;
499 __lsx_vstelm_d(src1, dst, 0, 1);
500 dst += dst_stride;
501 __lsx_vstelm_d(src2, dst, 0, 0);
502 dst += dst_stride;
503 __lsx_vstelm_d(src2, dst, 0, 1);
504 dst += dst_stride;
505 __lsx_vstelm_d(src3, dst, 0, 0);
506 dst += dst_stride;
507 __lsx_vstelm_d(src3, dst, 0, 1);
510 void ff_tm_16x16_lsx(uint8_t *dst, ptrdiff_t dst_stride,
588 LSX_ST_8(tmp0, tmp1, tmp2, tmp3, tmp4, tmp5, tmp6, tmp7, dst,
590 dst += stride4;
591 LSX_ST_8(tmp8, tmp9, tmp10, tmp11, tmp12, tmp13, tmp14, tmp15, dst,
595 void ff_tm_32x32_lsx(uint8_t *dst, ptrdiff_t dst_stride,
640 __lsx_vst(src0, dst, 0);
641 __lsx_vst(dst0, dst, 16);
642 dst += dst_stride;
643 __lsx_vst(src1, dst, 0);
644 __lsx_vst(dst1, dst, 16);
645 dst += dst_stride;
646 __lsx_vst(src2, dst, 0);
647 __lsx_vst(dst2, dst, 16);
648 dst += dst_stride;
649 __lsx_vst(src3, dst, 0);
650 __lsx_vst(dst3, dst, 16);
651 dst += dst_stride;