Lines Matching refs:dst

33 /* hevc_copy: dst = src << 6 */
35 int16_t *dst, int32_t dst_stride,
66 __lsx_vstelm_d(in0, dst, 0, 0);
67 __lsx_vstelm_d(in0, dst + dst_stride, 0, 1);
68 __lsx_vstelm_d(in1, dst + dst_stride_2x, 0, 0);
69 __lsx_vstelm_d(in1, dst + dst_stride_3x, 0, 1);
70 dst += dst_stride_4x;
71 __lsx_vstelm_d(in2, dst, 0, 0);
72 __lsx_vstelm_d(in2, dst + dst_stride, 0, 1);
73 __lsx_vstelm_d(in3, dst + dst_stride_2x, 0, 0);
74 __lsx_vstelm_d(in3, dst + dst_stride_3x, 0, 1);
75 dst += dst_stride_4x;
80 __lsx_vstelm_d(in0, dst, 0, 0);
82 dst += dst_stride;
87 int16_t *dst, int32_t dst_stride,
114 __lsx_vstelm_d(in0, dst, 0, 0);
115 __lsx_vstelm_w(in0, dst, 8, 2);
116 dst += dst_stride;
117 __lsx_vstelm_d(in1, dst, 0, 0);
118 __lsx_vstelm_w(in1, dst, 8, 2);
119 dst += dst_stride;
120 __lsx_vstelm_d(in2, dst, 0, 0);
121 __lsx_vstelm_w(in2, dst, 8, 2);
122 dst += dst_stride;
123 __lsx_vstelm_d(in3, dst, 0, 0);
124 __lsx_vstelm_w(in3, dst, 8, 2);
125 dst += dst_stride;
126 __lsx_vstelm_d(in4, dst, 0, 0);
127 __lsx_vstelm_w(in4, dst, 8, 2);
128 dst += dst_stride;
129 __lsx_vstelm_d(in5, dst, 0, 0);
130 __lsx_vstelm_w(in5, dst, 8, 2);
131 dst += dst_stride;
132 __lsx_vstelm_d(in6, dst, 0, 0);
133 __lsx_vstelm_w(in6, dst, 8, 2);
134 dst += dst_stride;
135 __lsx_vstelm_d(in7, dst, 0, 0);
136 __lsx_vstelm_w(in7, dst, 8, 2);
137 dst += dst_stride;
143 __lsx_vstelm_d(in0, dst, 0, 0);
144 __lsx_vstelm_w(in0, dst, 8, 2);
145 dst += dst_stride;
150 int16_t *dst, int32_t dst_stride,
180 __lsx_vst(in0, dst, 0);
181 __lsx_vstx(in1, dst, dst_stride_x);
182 __lsx_vstx(in2, dst, dst_stride_2x);
183 __lsx_vstx(in3, dst, dst_stride_3x);
184 dst += dst_stride_2x;
185 __lsx_vst(in4, dst, 0);
186 __lsx_vstx(in5, dst, dst_stride_x);
187 __lsx_vstx(in6, dst, dst_stride_2x);
188 __lsx_vstx(in7, dst, dst_stride_3x);
189 dst += dst_stride_2x;
194 __lsx_vst(in0, dst, 0);
196 dst += dst_stride;
201 int16_t *dst, int32_t dst_stride,
230 __lsx_vst(in0_r, dst, 0);
231 __lsx_vstx(in1_r, dst, dst_stride_x);
232 __lsx_vstx(in2_r, dst, dst_stride_2x);
233 __lsx_vstx(in3_r, dst, dst_stride_3x);
234 __lsx_vstelm_d(in0, dst, 16, 0);
235 dst += dst_stride;
236 __lsx_vstelm_d(in0, dst, 16, 1);
237 dst += dst_stride;
238 __lsx_vstelm_d(in1, dst, 16, 0);
239 dst += dst_stride;
240 __lsx_vstelm_d(in1, dst, 16, 1);
241 dst += dst_stride;
247 __lsx_vst(in0_r, dst, 0);
248 __lsx_vstx(in1_r, dst, dst_stride_x);
249 __lsx_vstx(in2_r, dst, dst_stride_2x);
250 __lsx_vstx(in3_r, dst, dst_stride_3x);
251 __lsx_vstelm_d(in0, dst, 16, 0);
252 dst += dst_stride;
253 __lsx_vstelm_d(in0, dst, 16, 1);
254 dst += dst_stride;
255 __lsx_vstelm_d(in1, dst, 16, 0);
256 dst += dst_stride;
257 __lsx_vstelm_d(in1, dst, 16, 1);
258 dst += dst_stride;
265 __lsx_vst(in0, dst, 0);
266 __lsx_vstelm_d(in1, dst, 16, 0);
268 dst += dst_stride;
273 int16_t *dst, int32_t dst_stride,
285 int16_t* dst1 = dst + 8;
306 __lsx_vst(in0_r, dst, 0);
307 __lsx_vstx(in1_r, dst, dst_stride_x);
308 __lsx_vstx(in2_r, dst, dst_stride_2x);
309 __lsx_vstx(in3_r, dst, dst_stride_3x);
314 dst += dst_stride_2x;
323 __lsx_vst(in0_r, dst, 0);
324 __lsx_vstx(in1_r, dst, dst_stride_x);
325 __lsx_vstx(in2_r, dst, dst_stride_2x);
326 __lsx_vstx(in3_r, dst, dst_stride_3x);
331 dst += dst_stride_2x;
345 __lsx_vst(in0_r, dst, 0);
346 __lsx_vstx(in1_r, dst, dst_stride_x);
347 __lsx_vstx(in2_r, dst, dst_stride_2x);
348 __lsx_vstx(in3_r, dst, dst_stride_3x);
349 dst += 8;
350 __lsx_vst(in0_l, dst, 0);
351 __lsx_vstx(in1_l, dst, dst_stride_x);
352 __lsx_vstx(in2_l, dst, dst_stride_2x);
353 __lsx_vstx(in3_l, dst, dst_stride_3x);
358 int16_t *dst, int32_t dst_stride,
369 int16_t *dst1 = dst;
391 __lsx_vst(in0_r, dst, 0);
392 __lsx_vstx(in1_r, dst, dst_stride_x);
393 __lsx_vstx(in2_r, dst, dst_stride_2x);
394 __lsx_vstx(in3_r, dst, dst_stride_3x);
395 dst1 = dst + 8;
407 dst += dst_stride_2x;
412 int16_t *dst, int32_t dst_stride,
441 __lsx_vst(in0_r, dst, 0);
442 __lsx_vst(in0_l, dst, 16);
443 __lsx_vst(in1_r, dst, 32);
444 __lsx_vst(in1_l, dst, 48);
445 dst += dst_stride;
446 __lsx_vst(in2_r, dst, 0);
447 __lsx_vst(in2_l, dst, 16);
448 __lsx_vst(in3_r, dst, 32);
449 __lsx_vst(in3_l, dst, 48);
450 dst += dst_stride;
458 __lsx_vst(in0_r, dst, 0);
459 __lsx_vst(in0_l, dst, 16);
460 __lsx_vst(in1_r, dst, 32);
461 __lsx_vst(in1_l, dst, 48);
462 dst += dst_stride;
463 __lsx_vst(in2_r, dst, 0);
464 __lsx_vst(in2_l, dst, 16);
465 __lsx_vst(in3_r, dst, 32);
466 __lsx_vst(in3_l, dst, 48);
467 dst += dst_stride;
472 int16_t *dst, int32_t dst_stride,
505 __lsx_vst(in0_r, dst, 0);
506 __lsx_vst(in0_l, dst, 16);
507 __lsx_vst(in1_r, dst, 32);
508 __lsx_vst(in1_l, dst, 48);
509 __lsx_vst(in2_r, dst, 64);
510 __lsx_vst(in2_l, dst, 80);
511 dst += dst_stride;
512 __lsx_vst(in3_r, dst, 0);
513 __lsx_vst(in3_l, dst, 16);
514 __lsx_vst(in4_r, dst, 32);
515 __lsx_vst(in4_l, dst, 48);
516 __lsx_vst(in5_r, dst, 64);
517 __lsx_vst(in5_l, dst, 80);
518 dst += dst_stride;
529 __lsx_vst(in0_r, dst, 0);
530 __lsx_vst(in0_l, dst, 16);
531 __lsx_vst(in1_r, dst, 32);
532 __lsx_vst(in1_l, dst, 48);
533 __lsx_vst(in2_r, dst, 64);
534 __lsx_vst(in2_l, dst, 80);
535 dst += dst_stride;
536 __lsx_vst(in3_r, dst, 0);
537 __lsx_vst(in3_l, dst, 16);
538 __lsx_vst(in4_r, dst, 32);
539 __lsx_vst(in4_l, dst, 48);
540 __lsx_vst(in5_r, dst, 64);
541 __lsx_vst(in5_l, dst, 80);
542 dst += dst_stride;
547 int16_t *dst, int32_t dst_stride,
570 __lsx_vst(in0_r, dst, 0);
571 __lsx_vst(in0_l, dst, 16);
572 __lsx_vst(in1_r, dst, 32);
573 __lsx_vst(in1_l, dst, 48);
574 __lsx_vst(in2_r, dst, 64);
575 __lsx_vst(in2_l, dst, 80);
576 __lsx_vst(in3_r, dst, 96);
577 __lsx_vst(in3_l, dst, 112);
578 dst += dst_stride;
586 __lsx_vst(in0_r, dst, 0);
587 __lsx_vst(in0_l, dst, 16);
588 __lsx_vst(in1_r, dst, 32);
589 __lsx_vst(in1_l, dst, 48);
590 __lsx_vst(in2_r, dst, 64);
591 __lsx_vst(in2_l, dst, 80);
592 __lsx_vst(in3_r, dst, 96);
593 __lsx_vst(in3_l, dst, 112);
594 dst += dst_stride;
599 int16_t *dst, int32_t dst_stride,
658 __lsx_vstelm_d(dst0, dst, 0, 0);
659 __lsx_vstelm_d(dst0, dst + dst_stride, 0, 1);
660 __lsx_vstelm_d(dst1, dst + dst_stride_2x, 0, 0);
661 __lsx_vstelm_d(dst1, dst + dst_stride_3x, 0, 1);
662 dst += dst_stride_4x;
663 __lsx_vstelm_d(dst2, dst, 0, 0);
664 __lsx_vstelm_d(dst2, dst + dst_stride, 0, 1);
665 __lsx_vstelm_d(dst3, dst + dst_stride_2x, 0, 0);
666 __lsx_vstelm_d(dst3, dst + dst_stride_3x, 0, 1);
667 dst += dst_stride_4x;
678 __lsx_vstelm_d(dst0, dst, 0, 0);
679 __lsx_vstelm_d(dst0, dst + dst_stride, 0, 1);
681 dst += dst_stride_2x;
686 int16_t *dst, int32_t dst_stride,
741 __lsx_vst(dst0, dst, 0);
742 __lsx_vstx(dst1, dst, dst_stride_x);
743 __lsx_vstx(dst2, dst, dst_stride_2x);
744 __lsx_vstx(dst3, dst, dst_stride_3x);
745 dst += dst_stride_2x;
750 int16_t *dst, int32_t dst_stride,
826 __lsx_vst(dst0, dst, 0);
827 __lsx_vstelm_d(dst4, dst, 16, 0);
828 dst += dst_stride;
829 __lsx_vst(dst1, dst, 0);
830 __lsx_vstelm_d(dst4, dst, 16, 1);
831 dst += dst_stride;
832 __lsx_vst(dst2, dst, 0);
833 __lsx_vstelm_d(dst5, dst, 16, 0);
834 dst += dst_stride;
835 __lsx_vst(dst3, dst, 0);
836 __lsx_vstelm_d(dst5, dst, 16, 1);
837 dst += dst_stride;
842 int16_t *dst, int32_t dst_stride,
892 __lsx_vst(dst0, dst, 0);
893 __lsx_vst(dst1, dst, 16);
894 dst += dst_stride;
895 __lsx_vst(dst2, dst, 0);
896 __lsx_vst(dst3, dst, 16);
897 dst += dst_stride;
902 int16_t *dst, int32_t dst_stride,
960 __lsx_vst(dst0, dst, 0);
961 __lsx_vst(dst1, dst, 16);
962 __lsx_vst(dst2, dst, 32);
963 dst += dst_stride;
964 __lsx_vst(dst3, dst, 0);
965 __lsx_vst(dst4, dst, 16);
966 __lsx_vst(dst5, dst, 32);
967 dst += dst_stride;
972 int16_t *dst, int32_t dst_stride,
1023 __lsx_vst(dst0, dst, 0);
1024 __lsx_vst(dst1, dst, 16);
1025 __lsx_vst(dst2, dst, 32);
1026 __lsx_vst(dst3, dst, 48);
1027 dst += dst_stride;
1032 int16_t *dst, int32_t dst_stride,
1074 __lsx_vst(dst0, dst, 0);
1075 __lsx_vst(dst1, dst, 16);
1076 __lsx_vst(dst2, dst, 32);
1077 __lsx_vst(dst3, dst, 48);
1094 __lsx_vst(dst4, dst, 64);
1095 __lsx_vst(dst5, dst, 80);
1096 dst += dst_stride;
1101 int16_t *dst, int32_t dst_stride,
1133 __lsx_vst(dst0, dst, 0);
1141 __lsx_vst(dst1, dst, 16);
1149 __lsx_vst(dst2, dst, 32);
1157 __lsx_vst(dst3, dst, 48);
1165 __lsx_vst(dst4, dst, 64);
1173 __lsx_vst(dst5, dst, 80);
1181 __lsx_vst(dst6, dst, 96);
1189 __lsx_vst(dst7, dst, 112);
1190 dst += dst_stride;
1195 int16_t *dst, int32_t dst_stride,
1268 __lsx_vstelm_d(dst10, dst, 0, 0);
1269 dst += dst_stride;
1270 __lsx_vstelm_d(dst10, dst, 0, 1);
1271 dst += dst_stride;
1272 __lsx_vstelm_d(dst32, dst, 0, 0);
1273 dst += dst_stride;
1274 __lsx_vstelm_d(dst32, dst, 0, 1);
1275 dst += dst_stride;
1276 __lsx_vstelm_d(dst54, dst, 0, 0);
1277 dst += dst_stride;
1278 __lsx_vstelm_d(dst54, dst, 0, 1);
1279 dst += dst_stride;
1280 __lsx_vstelm_d(dst76, dst, 0, 0);
1281 dst += dst_stride;
1282 __lsx_vstelm_d(dst76, dst, 0, 1);
1283 dst += dst_stride;
1302 __lsx_vstelm_d(dst10, dst, 0, 0);
1303 dst += dst_stride;
1304 __lsx_vstelm_d(dst10, dst, 0, 1);
1305 dst += dst_stride;
1315 int16_t *dst, int32_t dst_stride,
1372 __lsx_vst(dst0_r, dst, 0);
1373 __lsx_vstx(dst1_r, dst, dst_stride_x);
1374 __lsx_vstx(dst2_r, dst, dst_stride_2x);
1375 __lsx_vstx(dst3_r, dst, dst_stride_3x);
1376 dst += dst_stride_2x;
1389 int16_t *dst, int32_t dst_stride,
1464 __lsx_vst(dst0_r, dst, 0);
1465 __lsx_vstelm_d(dst0_l, dst, 16, 0);
1466 dst += dst_stride;
1467 __lsx_vst(dst1_r, dst, 0);
1468 __lsx_vstelm_d(dst0_l, dst, 16, 1);
1469 dst += dst_stride;
1470 __lsx_vst(dst2_r, dst, 0);
1471 __lsx_vstelm_d(dst1_l, dst, 16, 0);
1472 dst += dst_stride;
1473 __lsx_vst(dst3_r, dst, 0);
1474 __lsx_vstelm_d(dst1_l, dst, 16, 1);
1475 dst += dst_stride;
1492 int16_t *dst,
1520 dst_tmp = dst;
1610 dst += 16;
1615 int16_t *dst, int32_t dst_stride,
1618 hevc_vt_8t_16multx4mult_lsx(src, src_stride, dst, dst_stride,
1623 int16_t *dst, int32_t dst_stride,
1626 hevc_vt_8t_16multx4mult_lsx(src, src_stride, dst, dst_stride,
1628 hevc_vt_8t_8w_lsx(src + 16, src_stride, dst + 16, dst_stride,
1633 int16_t *dst, int32_t dst_stride,
1636 hevc_vt_8t_16multx4mult_lsx(src, src_stride, dst, dst_stride,
1641 int16_t *dst, int32_t dst_stride,
1644 hevc_vt_8t_16multx4mult_lsx(src, src_stride, dst, dst_stride,
1649 int16_t *dst, int32_t dst_stride,
1652 hevc_vt_8t_16multx4mult_lsx(src, src_stride, dst, dst_stride,
1657 int16_t *dst, int32_t dst_stride,
1769 __lsx_vstelm_d(dst0_r, dst, 0, 0);
1770 dst += dst_stride;
1771 __lsx_vstelm_d(dst0_r, dst, 0, 1);
1772 dst += dst_stride;
1773 __lsx_vstelm_d(dst2_r, dst, 0, 0);
1774 dst += dst_stride;
1775 __lsx_vstelm_d(dst2_r, dst, 0, 1);
1776 dst += dst_stride;
1790 int16_t *dst,
1831 dst_tmp = dst;
1927 dst += 8;
1932 int16_t *dst, int32_t dst_stride,
1936 hevc_hv_8t_8multx1mult_lsx(src, src_stride, dst, dst_stride,
1941 int16_t *dst, int32_t dst_stride,
1978 dst_tmp = dst;
2073 dst += 8;
2158 __lsx_vstelm_d(dst0_r, dst, 0, 0);
2159 dst += dst_stride;
2160 __lsx_vstelm_d(dst0_r, dst, 0, 1);
2161 dst += dst_stride;
2162 __lsx_vstelm_d(dst2_r, dst, 0, 0);
2163 dst += dst_stride;
2164 __lsx_vstelm_d(dst2_r, dst, 0, 1);
2165 dst += dst_stride;
2178 int16_t *dst, int32_t dst_stride,
2182 hevc_hv_8t_8multx1mult_lsx(src, src_stride, dst, dst_stride,
2187 int16_t *dst, int32_t dst_stride,
2191 hevc_hv_8t_8multx1mult_lsx(src, src_stride, dst, dst_stride,
2196 int16_t *dst, int32_t dst_stride,
2200 hevc_hv_8t_8multx1mult_lsx(src, src_stride, dst, dst_stride,
2205 int16_t *dst, int32_t dst_stride,
2209 hevc_hv_8t_8multx1mult_lsx(src, src_stride, dst, dst_stride,
2214 int16_t *dst, int32_t dst_stride,
2218 hevc_hv_8t_8multx1mult_lsx(src, src_stride, dst, dst_stride,
2224 int16_t *dst,
2260 __lsx_vst(dst0, dst, 0);
2261 __lsx_vst(dst1, dst, 16);
2262 __lsx_vst(dst2, dst, 32);
2263 __lsx_vst(dst3, dst, 48);
2264 dst += dst_stride;
2270 int16_t *dst,
2304 __lsx_vst(dst0_r, dst, 0);
2305 __lsx_vst(dst0_l, dst, 16);
2306 dst += dst_stride;
2307 __lsx_vst(dst1_r, dst, 0);
2308 __lsx_vst(dst1_l, dst, 16);
2309 dst += dst_stride;
2321 __lsx_vst(dst0_r, dst, 0);
2322 __lsx_vst(dst0_l, dst, 16);
2323 dst += dst_stride;
2324 __lsx_vst(dst1_r, dst, 0);
2325 __lsx_vst(dst1_l, dst, 16);
2326 dst += dst_stride;
2332 int16_t *dst,
2385 __lsx_vst(dst0_r, dst, 0);
2386 __lsx_vst(dst0_l, dst, 16);
2387 __lsx_vst(dst2_r, dst, 32);
2388 dst += dst_stride;
2389 __lsx_vst(dst1_r, dst, 0);
2390 __lsx_vst(dst1_l, dst, 16);
2391 __lsx_vst(dst3_r, dst, 32);
2392 dst += dst_stride;
2413 __lsx_vst(dst0_r, dst, 0);
2414 __lsx_vst(dst0_l, dst, 16);
2415 __lsx_vst(dst2_r, dst, 32);
2416 dst += dst_stride;
2417 __lsx_vst(dst1_r, dst, 0);
2418 __lsx_vst(dst1_l, dst, 16);
2419 __lsx_vst(dst3_r, dst, 32);
2420 dst += dst_stride;
2426 int16_t *dst,
2484 __lsx_vst(dst0_r, dst, 0);
2485 __lsx_vst(dst0_l, dst, 16);
2486 __lsx_vst(dst2_r, dst, 32);
2487 __lsx_vst(dst2_l, dst, 48);
2488 dst += dst_stride;
2489 __lsx_vst(dst1_r, dst, 0);
2490 __lsx_vst(dst1_l, dst, 16);
2491 __lsx_vst(dst3_r, dst, 32);
2492 __lsx_vst(dst3_l, dst, 48);
2493 dst += dst_stride;
2517 __lsx_vst(dst0_r, dst, 0);
2518 __lsx_vst(dst0_l, dst, 16);
2519 __lsx_vst(dst2_r, dst, 32);
2520 __lsx_vst(dst2_l, dst, 48);
2521 dst += dst_stride;
2522 __lsx_vst(dst1_r, dst, 0);
2523 __lsx_vst(dst1_l, dst, 16);
2524 __lsx_vst(dst3_r, dst, 32);
2525 __lsx_vst(dst3_l, dst, 48);
2526 dst += dst_stride;
2532 int16_t *dst,
2593 __lsx_vst(dst0_r, dst, 0);
2594 __lsx_vst(dst1_r, dst + dst_stride, 0);
2598 int16_t *dst, int32_t dst_stride,
2689 __lsx_vst(dst0_r, dst, 0);
2690 __lsx_vstx(dst1_r, dst, dst_stride_x);
2691 __lsx_vstx(dst2_r, dst, dst_stride_2x);
2692 __lsx_vstx(dst3_r, dst, dst_stride_3x);
2693 dst += 8;
2699 int16_t *dst,
2796 __lsx_vst(dst0_r, dst, 0);
2797 __lsx_vstx(dst1_r, dst, dst_stride_2x);
2798 dst += dst_stride_2x;
2799 __lsx_vst(dst2_r, dst, 0);
2800 __lsx_vstx(dst3_r, dst, dst_stride_2x);
2801 dst += dst_stride_2x;
2802 __lsx_vst(dst4_r, dst, 0);
2803 __lsx_vstx(dst5_r, dst, dst_stride_2x);
2808 int16_t *dst,
2847 dst_tmp = dst;
2929 dst += 8;
2935 int16_t *dst,
2943 hevc_hv_4t_8x2_lsx(src, src_stride, dst, dst_stride,
2946 hevc_hv_4t_8multx4_lsx(src, src_stride, dst, dst_stride,
2949 hevc_hv_4t_8x6_lsx(src, src_stride, dst, dst_stride,
2952 hevc_hv_4t_8multx4mult_lsx(src, src_stride, dst, dst_stride,
2959 int16_t *dst,
2997 dst_tmp = dst;
3074 dst += 8;
3139 __lsx_vstelm_d(tmp0, dst, 0, 0);
3140 dst += dst_stride;
3141 __lsx_vstelm_d(tmp0, dst, 0, 1);
3142 dst += dst_stride;
3143 __lsx_vstelm_d(tmp1, dst, 0, 0);
3144 dst += dst_stride;
3145 __lsx_vstelm_d(tmp1, dst, 0, 1);
3146 dst += dst_stride;
3147 __lsx_vstelm_d(tmp2, dst, 0, 0);
3148 dst += dst_stride;
3149 __lsx_vstelm_d(tmp2, dst, 0, 1);
3150 dst += dst_stride;
3151 __lsx_vstelm_d(tmp3, dst, 0, 0);
3152 dst += dst_stride;
3153 __lsx_vstelm_d(tmp3, dst, 0, 1);
3154 dst += dst_stride;
3164 int16_t *dst,
3171 hevc_hv_4t_8multx4_lsx(src, src_stride, dst, dst_stride,
3174 hevc_hv_4t_8multx4mult_lsx(src, src_stride, dst, dst_stride,
3181 int16_t *dst,
3187 hevc_hv_4t_8multx4mult_lsx(src, src_stride, dst, dst_stride,
3193 int16_t *dst,
3199 hevc_hv_4t_8multx4mult_lsx(src, src_stride, dst, dst_stride,
3204 void ff_hevc_put_hevc_pel_pixels##WIDTH##_8_lsx(int16_t *dst, \
3212 hevc_copy_##WIDTH##w_lsx(src, src_stride, dst, MAX_PB_SIZE, height); \
3228 void ff_hevc_put_hevc_##PEL##_##DIR##WIDTH##_8_lsx(int16_t *dst, \
3238 hevc_##DIR1##_##TAP##t_##WIDTH##w_lsx(src, src_stride, dst, \
3269 void ff_hevc_put_hevc_##PEL##_hv##WIDTH##_8_lsx(int16_t *dst, \
3280 hevc_hv_##TAP##t_##WIDTH##w_lsx(src, src_stride, dst, MAX_PB_SIZE, \