/third_party/ffmpeg/libavcodec/arm/ |
H A D | fft_vfp.S | 60 vadd.f s12, s0, s8 @ i0 61 vadd.f s13, s1, s9 @ i1 62 vadd.f s14, s2, s10 @ i2 63 vadd.f s15, s3, s11 @ i3 70 vadd.f s0, s12, s14 @ z[0].re 72 vadd.f s1, s13, s15 @ z[0].im 74 vadd.f s7, s9, s10 @ z[3].im 76 vadd.f s2, s8, s11 @ z[1].re 98 vadd.f s16, s8, s12 @ vector op 103 vadd [all...] |
H A D | fft_neon.S | 38 vadd.f32 d4, d0, d1 @ r0+r1,i0+i1 39 vadd.f32 d5, d2, d3 @ i2+i3,r2+r3 40 vadd.f32 d1, d6, d7 42 vadd.f32 d0, d4, d5 61 vadd.f32 d4, d16, d17 @ r4+r5,i4+i5 63 vadd.f32 d5, d18, d19 @ r6+r7,i6+i7 67 vadd.f32 d20, d0, d1 @ r0+r1,i0+i1 68 vadd.f32 d21, d2, d3 @ r2+r3,i2+i3 76 vadd.f32 d0, d20, d21 78 vadd [all...] |
H A D | vp3dsp_neon.S | 38 vadd.i16 q1, q3, q3 39 vadd.i16 q2, q2, q3 40 vadd.i16 q0, q1, q2 121 vadd.s16 q1, q8, q12 139 vadd.s16 q12, q1, q3 // E = (ip[0] + ip[4]) * C4 140 vadd.s16 q8, q8, q4 // F = (ip[0] - ip[4]) * C4 141 vadd.s16 q1, q2, q9 // ip[1] * C1 155 vadd.s16 q2, q2, q15 // ip[7] * C1 156 vadd.s16 q9, q1, q3 // A = ip[1] * C1 + ip[7] * C7 171 vadd [all...] |
H A D | hevcdsp_deblock_neon.S | 38 vadd.i16 q11, q3 73 vadd.i16 q7, q9, q11 74 vadd.i16 q6, q14, q12 99 vadd.i16 q5, q7, q6 105 vadd.i16 q4, q3 157 vadd.i16 q2, q11, q12 158 vadd.i16 q4, q9, q8 159 vadd.i16 q1, q2, q10 161 vadd.i16 q0, q1, q9 164 vadd [all...] |
H A D | h264idct_neon.S | 30 vadd.i16 d4, d0, d1 34 vadd.i16 d6, d2, d17 36 vadd.i16 q0, q2, q3 44 vadd.i16 d4, d0, d3 51 vadd.i16 d6, d16, d3 55 vadd.i16 q0, q2, q3 190 vadd.i16 q0, q8, q12 197 vadd.i16 q3, q3, q10 211 vadd.i16 q0, q8, q12 215 vadd [all...] |
H A D | hevcdsp_sao_neon.S | 44 vadd.u16 q11, q9, q15 // highIndex = (2*index+1) << 8 46 vadd.u16 q10, q9 // combine high and low index; 70 vadd.u16 q11, q9, q15 // highIndex = (2*index+1) << 8 72 vadd.u16 q10, q9 // combine high and low index; 121 vadd.u8 d8, d9 // diff0 125 vadd.u8 d10, d11 // diff1 126 vadd.s8 d8, d10 127 vadd.s8 d8, d1 130 vadd.u16 q7, q6, q2 132 vadd [all...] |
H A D | hpeldsp_neon.S | 131 vadd.u16 q12, q8, q9 133 NRND vadd.u16 q12, q12, q13 135 vadd.u16 q1 , q10, q11 137 NRND vadd.u16 q1, q1, q13 147 vadd.u16 q12, q8, q9 149 NRND vadd.u16 q12, q12, q13 151 vadd.u16 q0, q10, q11 153 NRND vadd.u16 q0, q0, q13 165 vadd.u16 q12, q8, q9 166 NRND vadd [all...] |
H A D | aacpsdsp_neon.S | 37 vadd.f32 q3, q1, q3 45 vadd.f32 q1, q1, q3 167 vadd.f32 d16, d19, d31 168 vadd.f32 d17, d20, d30 173 vadd.f32 d2, d21, d29 174 vadd.f32 d3, d22, d28 175 vadd.f32 d20, d23, d27 176 vadd.f32 d21, d24, d26 206 vadd.f32 d6, d28, d29 207 vadd [all...] |
H A D | rv34dsp_neon.S | 39 vadd.s32 q13, q13, q9 @ z3 = 17*block[i+4*1] + 7*block[i+4*3] 41 vadd.s32 q1, q10, q13 @ z0 + z3 42 vadd.s32 q2, q11, q12 @ z1 + z2 50 vadd.s32 q10, q1, q3 56 vadd.s32 q9, q9, q2 59 vadd.s32 q11, q11, q8 63 vadd.s32 q9, q9, q8 64 vadd.s32 q2, q13, q12 @ z1 + z2 65 vadd.s32 q1, q14, q9 @ z0 + z3 107 vadd [all...] |
H A D | vp6dsp_neon.S | 30 vadd.i16 q2, q0, q0 @ 2*(p[0]-p[-s]) 31 vadd.i16 d29, d28, d28 32 vadd.i16 q0, q0, q1 @ p[0]-p[-s] + p[-2*s]-p[s] 33 vadd.i16 d28, d28, d30 34 vadd.i16 q0, q0, q2 @ 3*(p[0]-p[-s]) + p[-2*s]-p[s] 35 vadd.i16 d28, d28, d29 49 vadd.i16 q13, q3, q3 @ 2*t 50 vadd.i16 d16, d6, d6 53 vadd.i16 q13, q13, q2 @ += s 54 vadd [all...] |
H A D | h264cmc_neon.S | 85 vadd.u16 q8, q8, q11 86 vadd.u16 q9, q9, q11 122 vadd.u16 q8, q8, q11 123 vadd.u16 q9, q9, q11 155 vadd.u16 q8, q8, q11 156 vadd.u16 q9, q9, q11 182 vadd.u16 q8, q8, q11 183 vadd.u16 q9, q9, q11 257 vadd.i16 d16, d16, d17 258 vadd [all...] |
H A D | idctdsp_neon.S | 57 vadd.u8 d0, d0, d31 59 vadd.u8 d1, d1, d31 61 vadd.u8 d2, d2, d31 69 vadd.u8 d3, d3, d31 71 vadd.u8 d4, d4, d31 72 vadd.u8 d5, d5, d31 78 vadd.u8 d6, d6, d31 79 vadd.u8 d7, d7, d31
|
H A D | h264pred_neon.S | 40 vadd.u16 \dl, \dl, \dh 77 vadd.u16 q0, q0, q1 78 vadd.u16 d0, d0, d1 130 vadd.i16 d4, d4, d5 131 vadd.i16 d5, d6, d7 139 vadd.i16 d2, d4, d5 143 vadd.i16 d16, d16, d0 155 vadd.i16 q1, q1, q0 156 vadd.i16 q3, q3, q2 160 vadd [all...] |
H A D | simple_idct_neon.S | 52 vadd.i32 q11, q15, q7 54 vadd.i32 q12, q15, q8 105 vadd.i32 q11, q11, q7 108 vadd.i32 q14, q14, q7 115 vadd.i32 q11, q11, q7 117 vadd.i32 q13, q13, q8 120 1: vadd.i32 q3, q11, q9 121 vadd.i32 q4, q12, q10 124 vadd.i32 q7, q13, q5 125 vadd [all...] |
H A D | hevcdsp_qpel_neon.S | 94 vadd.s32 q9, q13 // 58 * d0 - 10 * c0 + 17 * e0 95 vadd.s32 q10, q14 // 58 * d1 - 10 * c1 + 17 * e1 98 vadd.s32 q9, q11 // 58 * d0 - 10 * c0 + 17 * e0 + 4 * b0 99 vadd.s32 q10, q12 // 58 * d1 - 10 * c1 + 17 * e1 + 4 * b1 102 vadd.s32 q9, q13 // 58 * d0 - 10 * c0 + 17 * e0 + 4 * b0 + g0 - a0 - 5 * f0 103 vadd.s32 q10, q14 // 58 * d1 - 10 * c1 + 17 * e1 + 4 * b1 + g1 - a1 - 5 * f1 127 vadd.s32 q11, q13 // 11 * (c0 + f0) + a0 + h0 128 vadd.s32 q12, q14 // 11 * (c1 + f1) + a1 + h1 129 vadd.s32 q9, q15 // 40 * (d0 + e0) + 4*(b0+g0) 130 vadd [all...] |
H A D | sbrdsp_neon.S | 33 vadd.f32 q0, q0, q1 35 vadd.f32 q0, q0, q2 37 vadd.f32 q0, q0, q3 39 vadd.f32 q0, q0, q8 53 vadd.f32 d0, d0, d1 179 vadd.f32 d3, d4, d3 180 vadd.f32 d2, d5, d2 278 vadd.f32 d20, d20, d21 326 vadd.f32 d4, d4, d2 344 vadd [all...] |
/third_party/skia/third_party/externals/libpng/arm/ |
H A D | filter_neon.S | 70 vadd.u8 d0, d3, d4 71 vadd.u8 d1, d0, d5 72 vadd.u8 d2, d1, d6 73 vadd.u8 d3, d2, d7 90 vadd.u8 d0, d3, d22 92 vadd.u8 d1, d0, d5 96 vadd.u8 d2, d1, d6 98 vadd.u8 d3, d2, d7 112 vadd.u8 q0, q0, q1 127 vadd [all...] |
/third_party/node/deps/openssl/openssl/crypto/poly1305/asm/ |
H A D | poly1305-armv4.pl | 580 vadd.i64 $D4,$D4,$T0 @ h3 -> h4 582 vadd.i64 $D1,$D1,$T1 @ h0 -> h1 589 vadd.i64 $D2,$D2,$T1 @ h1 -> h2 593 vadd.i32 $D0#lo,$D0#lo,$T0#lo 597 vadd.i32 $D0#lo,$D0#lo,$T0#lo @ h4 -> h0 598 vadd.i32 $D3#lo,$D3#lo,$T1#lo @ h2 -> h3 605 vadd.i32 $D1#lo,$D1#lo,$T0#lo @ h0 -> h1 606 vadd.i32 $D4#lo,$D4#lo,$T1#lo @ h3 -> h4 624 vadd.i32 $S2,$S2,$R2 625 vadd [all...] |
/third_party/openssl/crypto/poly1305/asm/ |
H A D | poly1305-armv4.pl | 580 vadd.i64 $D4,$D4,$T0 @ h3 -> h4 582 vadd.i64 $D1,$D1,$T1 @ h0 -> h1 589 vadd.i64 $D2,$D2,$T1 @ h1 -> h2 593 vadd.i32 $D0#lo,$D0#lo,$T0#lo 597 vadd.i32 $D0#lo,$D0#lo,$T0#lo @ h4 -> h0 598 vadd.i32 $D3#lo,$D3#lo,$T1#lo @ h2 -> h3 605 vadd.i32 $D1#lo,$D1#lo,$T0#lo @ h0 -> h1 606 vadd.i32 $D4#lo,$D4#lo,$T1#lo @ h3 -> h4 624 vadd.i32 $S2,$S2,$R2 625 vadd [all...] |
/third_party/mesa3d/src/panfrost/midgard/ |
H A D | midgard_schedule.c | 1006 * will be vadd) */ in mir_schedule_condition() 1097 midgard_instruction **vadd, in mir_schedule_zs_write() 1108 midgard_instruction **units[] = { smul, vadd, vlut }; in mir_schedule_zs_write() 1175 midgard_instruction *vadd = NULL; in mir_schedule_alu() local 1189 vadd = cond; in mir_schedule_alu() 1228 vadd = ralloc(ctx, midgard_instruction); in mir_schedule_alu() 1229 *vadd = v_mov(~0, make_compiler_temp(ctx)); in mir_schedule_alu() 1232 vadd->op = midgard_alu_op_iadd; in mir_schedule_alu() 1233 vadd->src[0] = SSA_FIXED_REGISTER(31); in mir_schedule_alu() 1234 vadd in mir_schedule_alu() 1089 mir_schedule_zs_write( compiler_context *ctx, struct midgard_predicate *predicate, midgard_instruction **instructions, uint16_t *liveness, BITSET_WORD *worklist, unsigned len, midgard_instruction *branch, midgard_instruction **smul, midgard_instruction **vadd, midgard_instruction **vlut, bool stencil) mir_schedule_zs_write() argument [all...] |
/third_party/node/deps/openssl/openssl/crypto/sha/asm/ |
H A D | sha512-armv4.pl | 540 vadd.i64 $a,$Maj @ h+=Maj from the past 557 vadd.i64 $T1,$Ch,$h 560 vadd.i64 $T1,$t2 562 vadd.i64 $K,@X[$i%16] 567 vadd.i64 $T1,$K 570 vadd.i64 $d,$T1 571 vadd.i64 $Maj,$T1 572 @ vadd.i64 $h,$Maj 590 vadd.i64 @_[0],d30 @ h+=Maj from the past 599 vadd [all...] |
/third_party/openssl/crypto/sha/asm/ |
H A D | sha512-armv4.pl | 540 vadd.i64 $a,$Maj @ h+=Maj from the past 557 vadd.i64 $T1,$Ch,$h 560 vadd.i64 $T1,$t2 562 vadd.i64 $K,@X[$i%16] 567 vadd.i64 $T1,$K 570 vadd.i64 $d,$T1 571 vadd.i64 $Maj,$T1 572 @ vadd.i64 $h,$Maj 590 vadd.i64 @_[0],d30 @ h+=Maj from the past 599 vadd [all...] |
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/poly1305/ |
H A D | poly1305-armv4.S | 507 vadd.i64 q9,q9,q15 @ h3 -> h4 509 vadd.i64 q6,q6,q4 @ h0 -> h1 516 vadd.i64 q7,q7,q4 @ h1 -> h2 520 vadd.i32 d10,d10,d30 524 vadd.i32 d10,d10,d30 @ h4 -> h0 525 vadd.i32 d16,d16,d8 @ h2 -> h3 532 vadd.i32 d12,d12,d30 @ h0 -> h1 533 vadd.i32 d18,d18,d8 @ h3 -> h4 551 vadd.i32 d4,d4,d3 552 vadd [all...] |
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/poly1305/ |
H A D | poly1305-armv4.S | 507 vadd.i64 q9,q9,q15 @ h3 -> h4 509 vadd.i64 q6,q6,q4 @ h0 -> h1 516 vadd.i64 q7,q7,q4 @ h1 -> h2 520 vadd.i32 d10,d10,d30 524 vadd.i32 d10,d10,d30 @ h4 -> h0 525 vadd.i32 d16,d16,d8 @ h2 -> h3 532 vadd.i32 d12,d12,d30 @ h0 -> h1 533 vadd.i32 d18,d18,d8 @ h3 -> h4 551 vadd.i32 d4,d4,d3 552 vadd [all...] |
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/chacha/ |
H A D | chacha-armv4.S | 851 vadd.i32 q7,q3,q12 @ counter+1 857 vadd.i32 q11,q7,q12 @ counter+2 866 vadd.i32 q0,q0,q1 868 vadd.i32 q4,q4,q5 870 vadd.i32 q8,q8,q9 884 vadd.i32 q2,q2,q3 886 vadd.i32 q6,q6,q7 888 vadd.i32 q10,q10,q11 908 vadd.i32 q0,q0,q1 910 vadd [all...] |