/third_party/ffmpeg/libavcodec/arm/ |
H A D | fmtconvert_neon.S | 32 vld1.32 {q1},[r1,:128]! 33 vcvt.f32.s32 q3, q1 41 vld1.32 {q1},[r1,:128]! 42 vcvt.f32.s32 q3, q1 60 vld1.32 {q0-q1}, [r2,:128]! 65 vcvt.f32.s32 q1, q1 71 vmul.f32 q1, q1, q8 74 vst1.32 {q0-q1}, [r [all...] |
H A D | ac3dsp_neon.S | 26 1: vld1.16 {q1}, [r0,:128]! 27 vabs.s16 q1, q1 30 vorr q0, q0, q1 52 2: vld1.8 {q1}, [r3,:128], r12 54 vmin.u8 q0, q0, q1 64 1: vld1.16 {q1}, [r0,:128] 65 vshl.s16 q1, q1, q0 66 vst1.16 {q1}, [r [all...] |
H A D | vorbisdsp_neon.S | 42 vcle.s32 q8, q1, #0 44 veor q1, q1, q9 47 vand q2, q1, q8 48 vbic q3, q1, q8 49 vadd.f32 q1, q0, q2 73 vcle.s32 q8, q1, #0 75 veor q1, q1, q9 76 vand q2, q1, q [all...] |
H A D | hpeldsp_neon.S | 29 vld1.8 {q1}, [r1], r2 40 vrhadd.u8 q1, q1, q9 48 vst1.64 {q1}, [r0,:128], r2 61 vext.8 q1, q0, q1, #1 62 avg q0, q0, q1 66 vld1.8 {q1}, [r0,:128], r2 68 vrhadd.u8 q0, q0, q1 81 vld1.8 {q1}, [r [all...] |
H A D | h264dsp_neon.S | 48 vabd.u8 q15, q1, q0 @ abs(q1 - q0) 73 vqadd.u8 q2, q1, q12 75 vqsub.u8 q11, q1, q12 91 vbsl q5, q14, q1 156 transpose_8x8 q3, q10, q9, q8, q0, q1, q2, q13 196 vabd.u8 d30, d2, d0 @ abs(q1 - q0) 338 vmov q1, q8 342 \macd q1, d0, d4 345 \macs q1, d [all...] |
H A D | hevcdsp_deblock_neon.S | 46 vaddw.u8 q1, q11, d2 48 vqmovun.s16 d2, q1 111 vshr.s16 q1, q0, #2 113 vcgt.s16 q5, q1, q5 122 vshr.s16 q1, q1, #1 130 vcgt.s16 q6, q1, q7 159 vadd.i16 q1, q2, q10 161 vadd.i16 q0, q1, q9 164 vadd.i16 q1, q [all...] |
H A D | h264idct_neon.S | 32 vshr.s16 q8, q1, #1 37 vsub.i16 q1, q2, q3 47 vshr.s16 q8, q1, #1 56 vsub.i16 q1, q2, q3 59 vrshr.s16 q1, q1, #6 62 vaddw.u8 q1, q1, d19 65 vqmovun.s16 d1, q1 81 vrshr.s16 q1, q [all...] |
H A D | vp9mc_16bpp_neon.S | 34 vld1.16 {q0, q1}, [r2]! 35 vst1.16 {q0, q1}, [r0, :128]! 55 vld1.16 {q0, q1}, [r0, :128]! 59 vrhadd.u16 q1, q1, q9 62 vst1.16 {q0, q1}, [lr, :128]! 87 vld1.16 {q0, q1}, [r0, :128]! 91 vrhadd.u16 q1, q1, q9 93 vst1.16 {q0, q1}, [l [all...] |
H A D | hevcdsp_idct_neon.S | 44 vld1.16 {q0-q1}, [r1, :128] 53 vqadd.s16 q1, q1, q9 55 vqmovun.s16 d1, q1 65 vld1.16 {q0-q1}, [r1, :128] 72 vqadd.s16 q1, q3 74 clip10 q0, q1, q12, q13 90 vld1.16 {q0-q1}, [r1, :128]! 93 vqadd.s16 q1, q8 95 vqmovun.s16 d1, q1 [all...] |
H A D | sbrdsp_neon.S | 32 vld1.32 {q1}, [r1,:128]! 33 vadd.f32 q0, q0, q1 49 vld1.32 {q1}, [r0,:128]! 50 vmla.f32 q0, q1, q1 62 vld2.32 {q0,q1}, [r0,:128]! 63 veor q1, q1, q8 66 vst2.32 {q0,q1}, [r1,:128]! 68 vld2.32 {q0,q1}, [r [all...] |
H A D | fft_neon.S | 35 vext.32 q8, q1, q1, #1 @ i2,r3 d3=i3,r2 60 vext.32 q11, q1, q1, #1 @ i2,r3,i3,r2 124 vmul.f32 q1, q11, d2[1] 127 vadd.f32 q11, q12, q1 @ {t1a,t2a,t5,t6} 140 vsub.f32 q11, q9, q1 @ {r6,r7,i6,i7} 142 vadd.f32 q9, q9, q1 @ {r2,r3,i2,i3} 145 vadd.f32 q1, q14, q15 @ {t1a,t2a,t5a,t6a} 153 vswp d3, d30 @ q1{t1 [all...] |
H A D | audiodsp_neon.S | 25 VFP vdup.32 q1, d0[1] 30 vmin.f32 q10, q2, q1 32 vmin.f32 q11, q3, q1 38 vmin.f32 q10, q2, q1 40 vmin.f32 q11, q3, q1 51 vdup.32 q1, r3 55 vmin.s32 q2, q2, q1 56 vmin.s32 q3, q3, q1
|
H A D | rv34dsp_neon.S | 30 vshll.s16 q1, d31, #4 38 vaddw.s16 q1, q1, d31 40 vsub.s32 q12, q12, q1 @ z2 = 7*block[i+4*1] - 17*block[i+4*3] 41 vadd.s32 q1, q10, q13 @ z0 + z3 45 vtrn.32 q1, q2 50 vadd.s32 q10, q1, q3 51 vsub.s32 q11, q1, q3 65 vadd.s32 q1, q14, q9 @ z0 + z3 75 vrshrn.s32 d16, q1, #1 [all...] |
/third_party/node/deps/v8/src/base/ |
H A D | division-by-constant.cc | 26 T q1 = min / anc; // Init. q1 = 2**p/|nc|. in SignedDivisionByConstant() 27 T r1 = min - q1 * anc; // Init. r1 = rem(2**p, |nc|). in SignedDivisionByConstant() 33 q1 = 2 * q1; // Update q1 = 2**p/|nc|. in SignedDivisionByConstant() 36 q1 = q1 + 1; in SignedDivisionByConstant() 46 } while (q1 < delta || (q1 in SignedDivisionByConstant() 64 T q1 = min / nc; // Init. q1 = 2**p/nc UnsignedDivisionByConstant() local [all...] |
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/aes/ |
H A D | bsaes-armv7.S | 101 veor q11, q1, q9 141 veor q11, q11, q1 146 veor q1, q1, q11 163 vshr.u64 q10, q1, #2 173 veor q1, q1, q10 187 vshr.u64 q10, q1, #4 197 veor q1, q1, q1 [all...] |
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/aes/ |
H A D | bsaes-armv7.S | 101 veor q11, q1, q9 141 veor q11, q11, q1 146 veor q1, q1, q11 163 vshr.u64 q10, q1, #2 173 veor q1, q1, q10 187 vshr.u64 q10, q1, #4 197 veor q1, q1, q1 [all...] |
/third_party/ffmpeg/libavresample/arm/ |
H A D | audio_convert_neon.S | 28 vld1.32 {q1}, [r1,:128]! 29 vcvt.s32.f32 q9, q1, #31 38 vld1.32 {q1}, [r1,:128]! 39 vcvt.s32.f32 q1, q1, #31 42 vqrshrn.s32 d7, q1, #16 54 vld1.32 {q1}, [r1,:128]! 56 vcvt.s32.f32 q1, q1, #31 59 vqrshrn.s32 d7, q1, #1 [all...] |
/third_party/ffmpeg/libswresample/arm/ |
H A D | audio_convert_neon.S | 29 vld1.32 {q1}, [r1,:128]! 30 vcvt.s32.f32 q9, q1, #31 39 vld1.32 {q1}, [r1,:128]! 40 vcvt.s32.f32 q1, q1, #31 43 vqrshrn.s32 d7, q1, #16 55 vld1.32 {q1}, [r1,:128]! 57 vcvt.s32.f32 q1, q1, #31 60 vqrshrn.s32 d7, q1, #1 [all...] |
/third_party/ffmpeg/libavutil/arm/ |
H A D | float_dsp_neon.S | 30 vmul.f32 q9, q1, q3 40 vmul.f32 q11, q1, q3 47 vmul.f32 q9, q1, q3 59 vmul.f32 q9, q1, q3 76 vld1.32 {q1}, [r1,:128]! 81 vmla.f32 q9, q1, q15 93 vld1.32 {q1}, [r1,:128]! 120 vld1.32 {q1},[r1,:128]! 123 vmul.f32 q1, q1, q [all...] |
/third_party/ffmpeg/libavcodec/mips/ |
H A D | vp8_lpf_msa.c | 25 #define VP8_SIMPLE_MASK(p1, p0, q0, q1, b_limit, mask) \ 30 p1_a_sub_q1 = __msa_asub_u_b(p1, q1); \ 142 #define VP8_MBFILTER(p2, p1, p0, q0, q1, q2, mask, hev) \ 156 q1_m = (v16i8) __msa_xori_b(q1, 0x80); \ 231 q1 = __msa_xori_b((v16u8) q1_m, 0x80); \ 301 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; in ff_vp8_v_loop_filter16_msa() local 309 LD_UB8(temp_src, pitch, p3, p2, p1, p0, q0, q1, q2, q3); in ff_vp8_v_loop_filter16_msa() 310 LPF_MASK_HEV(p3, p2, p1, p0, q0, q1, q2, q3, limit, b_limit, thresh, in ff_vp8_v_loop_filter16_msa() 312 VP8_MBFILTER(p2, p1, p0, q0, q1, q2, mask, hev); in ff_vp8_v_loop_filter16_msa() 317 ST_UB2(q1, q in ff_vp8_v_loop_filter16_msa() 326 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; ff_vp8_v_loop_filter8uv_msa() local 378 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; ff_vp8_h_loop_filter16_msa() local 443 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; ff_vp8_h_loop_filter8uv_msa() local 508 v16u8 p1, p0, q1, q0; ff_vp8_v_loop_filter_simple_msa() local 523 v16u8 p1, p0, q1, q0; ff_vp8_h_loop_filter_simple_msa() local 552 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; ff_vp8_v_loop_filter8uv_inner_msa() local 593 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; ff_vp8_h_loop_filter8uv_inner_msa() local 628 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; ff_vp8_v_loop_filter16_inner_msa() local 648 v16u8 p3, p2, p1, p0, q3, q2, q1, q0; ff_vp8_h_loop_filter16_inner_msa() local [all...] |
/third_party/skia/third_party/externals/libwebp/src/dsp/ |
H A D | dec_neon.c | 50 uint8x16_t* const q1) { in Load4x16_NEON() 51 // row0 = p1[0..7]|p0[0..7]|q0[0..7]|q1[0..7] in Load4x16_NEON() 52 // row8 = p1[8..15]|p0[8..15]|q0[8..15]|q1[8..15] in Load4x16_NEON() 58 *q1 = vcombine_u8(row0.val[3], row8.val[3]); in Load4x16_NEON() 72 uint8x16_t* const q1) { in Load4x16_NEON() 106 *q1 = vreinterpretq_u8_u16(row13.val[1]); in Load4x16_NEON() 116 uint8x16_t* const p0, uint8x16_t* const q0, uint8x16_t* const q1, in Load8x16_NEON() 119 Load4x16_NEON(src + 2, stride, q0, q1, q2, q3); in Load8x16_NEON() 126 uint8x16_t* const q1) { in Load16x4_NEON() 130 *q1 in Load16x4_NEON() 46 Load4x16_NEON(const uint8_t* const src, int stride, uint8x16_t* const p1, uint8x16_t* const p0, uint8x16_t* const q0, uint8x16_t* const q1) Load4x16_NEON() argument 68 Load4x16_NEON(const uint8_t* src, int stride, uint8x16_t* const p1, uint8x16_t* const p0, uint8x16_t* const q0, uint8x16_t* const q1) Load4x16_NEON() argument 113 Load8x16_NEON( const uint8_t* const src, int stride, uint8x16_t* const p3, uint8x16_t* const p2, uint8x16_t* const p1, uint8x16_t* const p0, uint8x16_t* const q0, uint8x16_t* const q1, uint8x16_t* const q2, uint8x16_t* const q3) Load8x16_NEON() argument 122 Load16x4_NEON(const uint8_t* const src, int stride, uint8x16_t* const p1, uint8x16_t* const p0, uint8x16_t* const q0, uint8x16_t* const q1) Load16x4_NEON() argument 133 Load16x8_NEON( const uint8_t* const src, int stride, uint8x16_t* const p3, uint8x16_t* const p2, uint8x16_t* const p1, uint8x16_t* const p0, uint8x16_t* const q0, uint8x16_t* const q1, uint8x16_t* const q2, uint8x16_t* const q3) Load16x8_NEON() argument 142 Load8x8x2_NEON( const uint8_t* const u, const uint8_t* const v, int stride, uint8x16_t* const p3, uint8x16_t* const p2, uint8x16_t* const p1, uint8x16_t* const p0, uint8x16_t* const q0, uint8x16_t* const q1, uint8x16_t* const q2, uint8x16_t* const q3) Load8x8x2_NEON() argument 164 Load8x8x2T_NEON( const uint8_t* const u, const uint8_t* const v, int stride, uint8x16_t* const p3, uint8x16_t* const p2, uint8x16_t* const p1, uint8x16_t* const p0, uint8x16_t* const q0, uint8x16_t* const q1, uint8x16_t* const q2, uint8x16_t* const q3) Load8x8x2T_NEON() argument 259 Store4x16_NEON(const uint8x16_t p1, const uint8x16_t p0, const uint8x16_t q0, const uint8x16_t q1, uint8_t* const dst, int stride) Store4x16_NEON() argument 280 Store16x4_NEON(const uint8x16_t p1, const uint8x16_t p0, const uint8x16_t q0, const uint8x16_t q1, uint8_t* const dst, int stride) Store16x4_NEON() argument 298 Store8x4x2_NEON(const uint8x16_t p1, const uint8x16_t p0, const uint8x16_t q0, const uint8x16_t q1, uint8_t* const u, uint8_t* const v, int stride) Store8x4x2_NEON() argument 317 Store6x8x2_NEON( const uint8x16_t p2, const uint8x16_t p1, const uint8x16_t p0, const uint8x16_t q0, const uint8x16_t q1, const uint8x16_t q2, uint8_t* u, uint8_t* v, int stride) Store6x8x2_NEON() argument 345 Store4x8x2_NEON(const uint8x16_t p1, const uint8x16_t p0, const uint8x16_t q0, const uint8x16_t q1, uint8_t* const u, uint8_t* const v, int stride) Store4x8x2_NEON() argument 427 NeedsFilter_NEON(const uint8x16_t p1, const uint8x16_t p0, const uint8x16_t q0, const uint8x16_t q1, int thresh) NeedsFilter_NEON() argument 450 GetBaseDelta_NEON(const int8x16_t p1, const int8x16_t p0, const int8x16_t q0, const int8x16_t q1) GetBaseDelta_NEON() argument 500 DoFilter2_NEON(const uint8x16_t p1, const uint8x16_t p0, const uint8x16_t q0, const uint8x16_t q1, const uint8x16_t mask, uint8x16_t* const op0, uint8x16_t* const oq0) DoFilter2_NEON() argument 514 uint8x16_t p1, p0, q0, q1, op0, oq0; SimpleVFilter16_NEON() local 524 uint8x16_t p1, p0, q0, q1, oq0, op0; SimpleHFilter16_NEON() local 675 NeedsHev_NEON(const uint8x16_t p1, const uint8x16_t p0, const uint8x16_t q0, const uint8x16_t q1, int hev_thresh) NeedsHev_NEON() argument 686 NeedsFilter2_NEON(const uint8x16_t p3, const uint8x16_t p2, const uint8x16_t p1, const uint8x16_t p0, const uint8x16_t q0, const uint8x16_t q1, const uint8x16_t q2, const uint8x16_t q3, int ithresh, int thresh) NeedsFilter2_NEON() argument 711 ApplyFilter4_NEON( const int8x16_t p1, const int8x16_t p0, const int8x16_t q0, const int8x16_t q1, const int8x16_t delta0, uint8x16_t* const op1, uint8x16_t* const op0, uint8x16_t* const oq0, uint8x16_t* const oq1) ApplyFilter4_NEON() argument 730 DoFilter4_NEON( const uint8x16_t p1, const uint8x16_t p0, const uint8x16_t q0, const uint8x16_t q1, const uint8x16_t mask, const uint8x16_t hev_mask, uint8x16_t* const op1, uint8x16_t* const op0, uint8x16_t* const oq0, uint8x16_t* const oq1) DoFilter4_NEON() argument 764 ApplyFilter6_NEON( const int8x16_t p2, const int8x16_t p1, const int8x16_t p0, const int8x16_t q0, const int8x16_t q1, const int8x16_t q2, const int8x16_t delta, uint8x16_t* const op2, uint8x16_t* const op1, uint8x16_t* const op0, uint8x16_t* const oq0, uint8x16_t* const oq1, uint8x16_t* const oq2) ApplyFilter6_NEON() argument 801 DoFilter6_NEON( const uint8x16_t p2, const uint8x16_t p1, const uint8x16_t p0, const uint8x16_t q0, const uint8x16_t q1, const uint8x16_t q2, const uint8x16_t mask, const uint8x16_t hev_mask, uint8x16_t* const op2, uint8x16_t* const op1, uint8x16_t* const op0, uint8x16_t* const oq0, uint8x16_t* const oq1, uint8x16_t* const oq2) DoFilter6_NEON() argument 839 uint8x16_t p3, p2, p1, p0, q0, q1, q2, q3; VFilter16_NEON() local 856 uint8x16_t p3, p2, p1, p0, q0, q1, q2, q3; HFilter16_NEON() local 878 uint8x16_t q0, q1, q2, q3; VFilter16i_NEON() local 902 uint8x16_t q0, q1, q2, q3; HFilter16i_NEON() local 921 uint8x16_t p3, p2, p1, p0, q0, q1, q2, q3; VFilter8_NEON() local 937 uint8x16_t p3, p2, p1, p0, q0, q1, q2, q3; VFilter8i_NEON() local 954 uint8x16_t p3, p2, p1, p0, q0, q1, q2, q3; HFilter8_NEON() local 969 uint8x16_t p3, p2, p1, p0, q0, q1, q2, q3; HFilter8i_NEON() local [all...] |
H A D | dec_sse2.c | 276 const __m128i* const q1, in GetNotHEV_SSE2() 280 const __m128i t_2 = MM_ABS(*q1, *q0); in GetNotHEV_SSE2() 293 const __m128i* const q1, in GetBaseDelta_SSE2() 296 const __m128i p1_q1 = _mm_subs_epi8(*p1, *q1); // p1 - q1 in GetBaseDelta_SSE2() 298 const __m128i s1 = _mm_adds_epi8(p1_q1, q0_p0); // p1 - q1 + 1 * (q0 - p0) in GetBaseDelta_SSE2() 299 const __m128i s2 = _mm_adds_epi8(q0_p0, s1); // p1 - q1 + 2 * (q0 - p0) in GetBaseDelta_SSE2() 300 const __m128i s3 = _mm_adds_epi8(q0_p0, s2); // p1 - q1 + 3 * (q0 - p0) in GetBaseDelta_SSE2() 339 const __m128i* const q1, in NeedsFilter_SSE2() 342 const __m128i t1 = MM_ABS(*p1, *q1); // ab in NeedsFilter_SSE2() 273 GetNotHEV_SSE2(const __m128i* const p1, const __m128i* const p0, const __m128i* const q0, const __m128i* const q1, int hev_thresh, __m128i* const not_hev) GetNotHEV_SSE2() argument 290 GetBaseDelta_SSE2(const __m128i* const p1, const __m128i* const p0, const __m128i* const q0, const __m128i* const q1, __m128i* const delta) GetBaseDelta_SSE2() argument 336 NeedsFilter_SSE2(const __m128i* const p1, const __m128i* const p0, const __m128i* const q0, const __m128i* const q1, int thresh, __m128i* const mask) NeedsFilter_SSE2() argument 359 DoFilter2_SSE2(__m128i* const p1, __m128i* const p0, __m128i* const q0, __m128i* const q1, int thresh) DoFilter2_SSE2() argument 378 DoFilter4_SSE2(__m128i* const p1, __m128i* const p0, __m128i* const q0, __m128i* const q1, const __m128i* const mask, int hev_thresh) DoFilter4_SSE2() argument 424 DoFilter6_SSE2(__m128i* const p2, __m128i* const p1, __m128i* const p0, __m128i* const q0, __m128i* const q1, __m128i* const q2, const __m128i* const mask, int hev_thresh) DoFilter6_SSE2() argument 502 Load16x4_SSE2(const uint8_t* const r0, const uint8_t* const r8, int stride, __m128i* const p1, __m128i* const p0, __m128i* const q0, __m128i* const q1) Load16x4_SSE2() argument 549 Store16x4_SSE2(const __m128i* const p1, const __m128i* const p0, const __m128i* const q0, const __m128i* const q1, uint8_t* r0, uint8_t* r8, int stride) Store16x4_SSE2() argument 598 __m128i q1 = _mm_loadu_si128((__m128i*)&p[stride]); SimpleVFilter16_SSE2() local 608 __m128i p1, p0, q0, q1; SimpleHFilter16_SSE2() local 674 ComplexMask_SSE2(const __m128i* const p1, const __m128i* const p0, const __m128i* const q0, const __m128i* const q1, int thresh, int ithresh, __m128i* const mask) ComplexMask_SSE2() argument 693 __m128i p2, p1, p0, q0, q1, q2; VFilter16_SSE2() local 718 __m128i p3, p2, p1, p0, q0, q1, q2, q3; HFilter16_SSE2() local 800 __m128i t1, p2, p1, p0, q0, q1, q2; VFilter8_SSE2() local 825 __m128i p3, p2, p1, p0, q0, q1, q2, q3; HFilter8_SSE2() local 845 __m128i t1, t2, p1, p0, q0, q1; VFilter8i_SSE2() local 871 __m128i t1, t2, p1, p0, q0, q1; HFilter8i_SSE2() local [all...] |
/third_party/jerryscript/jerry-libm/ |
H A D | sqrt.c | 108 unsigned r, t1, s1, ix1, q1; in sqrt() local 161 q = q1 = s0 = s1 = 0; /* [q,q1] = sqrt(x) */ in sqrt() 196 q1 += r; in sqrt() 212 if (q1 == (unsigned) 0xffffffff) in sqrt() 214 q1 = 0; in sqrt() 219 if (q1 == (unsigned) 0xfffffffe) in sqrt() 223 q1 += 2; in sqrt() 227 q1 += (q1 in sqrt() [all...] |
/third_party/musl/porting/liteos_m/kernel/src/math/ |
H A D | sqrt.c | 88 uint32_t r,t1,s1,ix1,q1; in sqrt() local 128 q = q1 = s0 = s1 = 0; /* [q,q1] = sqrt(x) */ in sqrt() 155 q1 += r; in sqrt() 167 if (q1 == (uint32_t)0xffffffff) { in sqrt() 168 q1 = 0; in sqrt() 171 if (q1 == (uint32_t)0xfffffffe) in sqrt() 173 q1 += 2; in sqrt() 175 q1 += q1 in sqrt() [all...] |
/third_party/ffmpeg/libavcodec/ |
H A D | h264dsp_template.c | 123 const int q1 = pix[1*xstride]; in h264_loop_filter_luma() local 128 FFABS( q1 - q0 ) < beta ) { in h264_loop_filter_luma() 140 pix[ xstride] = q1 + av_clip( (( q2 + ( ( p0 + q0 + 1 ) >> 1 ) ) >> 1) - q1, -tc_orig, tc_orig ); in h264_loop_filter_luma() 144 i_delta = av_clip( (((q0 - p0 ) * 4) + (p1 - q1) + 4) >> 3, -tc, tc ); in h264_loop_filter_luma() 179 const int q1 = pix[ 1*xstride]; in h264_loop_filter_luma_intra() local 184 FFABS( q1 - q0 ) < beta ) { in h264_loop_filter_luma_intra() 191 pix[-1*xstride] = ( p2 + 2*p1 + 2*p0 + 2*q0 + q1 + 4 ) >> 3; in h264_loop_filter_luma_intra() 196 pix[-1*xstride] = ( 2*p1 + p0 + q1 + 2 ) >> 2; in h264_loop_filter_luma_intra() 201 /* q0', q1', q in h264_loop_filter_luma_intra() 249 const int q1 = pix[1*xstride]; h264_loop_filter_chroma() local 297 const int q1 = pix[1*xstride]; h264_loop_filter_chroma_intra() local [all...] |