/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/aes/ |
H A D | bsaes-armv7.S | 119 veor q11, q7, q9 128 veor q10, q10, q7 132 veor q7, q7, q10 153 veor q10, q10, q7 157 veor q7, q7, q10 177 veor q10, q10, q7 181 veor q7, q7, q1 [all...] |
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/aes/ |
H A D | bsaes-armv7.S | 119 veor q11, q7, q9 128 veor q10, q10, q7 132 veor q7, q7, q10 153 veor q10, q10, q7 157 veor q7, q7, q10 177 veor q10, q10, q7 181 veor q7, q7, q1 [all...] |
/third_party/ffmpeg/libavcodec/arm/ |
H A D | hevcdsp_deblock_neon.S | 73 vadd.i16 q7, q9, q11 75 vsub.i16 q7, q10 77 vabd.s16 q7, q7, q10 82 vmov q4, q7 85 vtrn.16 q7, q4 88 vshl.u64 q7, #32 92 vshr.u64 q7, #32 97 vorr q7, q4 99 vadd.i16 q5, q7, q [all...] |
H A D | vp9lpf_neon.S | 48 @ and q0-q7 are used as scratch registers. 63 vabd.u8 q7, q14, q15 @ abs(q2 - q3) 66 vmax.u8 q4, q6, q7 70 vabd.u8 q7, q10, q13 @ abs(p1 - q1) 72 vshr.u8 q7, q7, #1 74 vqadd.u8 q5, q5, q7 @ abs(p0 - q0) * 2 + abs(p1 - q1) >> 1 98 vsubl.u8 q7, d25, d23 @ q0 - p0 104 vmul.s16 q7, q7, q [all...] |
H A D | simple_idct_neon.S | 49 vmull.s16 q7, d6, w2 /* q9 = W2 * col[2] */ 52 vadd.i32 q11, q15, q7 58 vsub.i32 q14, q15, q7 100 vmull.s16 q7, d3, w4 /* q7 = W4 * col[4] */ 105 vadd.i32 q11, q11, q7 106 vsub.i32 q12, q12, q7 107 vsub.i32 q13, q13, q7 108 vadd.i32 q14, q14, q7 110 vmull.s16 q7, d [all...] |
H A D | hevcdsp_qpel_neon.S | 43 vmov q6, q7 108 // input q0 - q7 168 .macro qpel_filter_1 out=q7 186 .macro qpel_filter_2 out=q7 201 .macro qpel_filter_3 out=q7 235 vst1.16 {q7}, [r0], r1 277 vqrshrun.s16 d0, q7, #6 292 vqrshrun.s16 d0, q7, #6 306 vqadd.s16 q0, q7 377 vst1.16 {q7}, [r [all...] |
H A D | vp3dsp_neon.S | 132 vmull.s16 q7, d17, xC4S4 138 vshrn.s32 d9, q7, #16 148 vmull.s16 q7, d19, xC7S1 154 vshrn.s32 d9, q7, #16 164 vmull.s16 q7, d27, xC5S3 170 vshrn.s32 d9, q7, #16 181 vmull.s16 q7, d29, xC6S2 187 vshrn.s32 d9, q7, #16 202 vmull.s16 q7, d21, xC6S2 210 vshrn.s32 d9, q7, #1 [all...] |
H A D | vp9itxfm_16bpp_neon.S | 329 vmull.s32 q7, \cd1, d3[1] 343 vrshrn.s64 \cd5, q7, #14 372 @ iadst4_12 needs q4-q7 373 vpush {q4-q7} 450 vpop {q4-q7} 495 dmbutterfly_l q8, q15, q6, q7, d22, d23, d24, d25, d2[1], d2[0] @ q8,q15 = t5a, q6,q7 = t4a 497 dbutterfly_n d22, d23, d4, d5, q2, q3, q6, q7, q11, q12, q2, q3 @ q11 = t0, q2 = t4 499 dbutterfly_n d24, d25, d6, d7, q4, q5, q8, q15, q12, q3, q6, q7 @ q12 = t1, q3 = t5 501 dmbutterfly_l q6, q7, q [all...] |
H A D | h264dsp_neon.S | 52 vclt.s8 q7, q12, #0 55 vbic q6, q6, q7 67 vqadd.u8 q7, q9, q12 71 vmin.u8 q7, q7, q10 74 vmax.u8 q7, q7, q11 90 vbsl q4, q7, q9 92 vneg.s8 q7, q6 96 vmax.s8 q2, q2, q7 [all...] |
H A D | hevcdsp_sao_neon.S | 130 vadd.u16 q7, q6, q2 131 vshl.u16 q10, q7, #8 // highIndex 163 vadd.u16 q7, q6, q2 164 vshl.u16 q10, q7, #8 // highIndex
|
H A D | vp9mc_neon.S | 557 loadl q5, q6, q7 561 convolve q1, q2, q5, q6, q7, q8, q9, q10, q11, q12, q13, \idx1, \idx2, q4, q5 562 convolve q3, q4, q7, q8, q9, q10, q11, q12, q13, q14, q15, \idx1, \idx2, q5, q6 568 loadl q4, q5, q6, q7 570 convolve q3, q8, q11, q12, q13, q14, q15, q4, q5, q6, q7, \idx1, \idx2, q9, q10 577 convolve q1, q2, q13, q14, q15, q4, q5, q6, q7, q8, q9, \idx1, \idx2, q12, q13 578 convolve q3, q12, q15, q4, q5, q6, q7, q8, q9, q10, q11, \idx1, \idx2, q13, q14 599 vpop {q4-q7} 641 vmovl.u8 q7, d4 655 convolve q1, q2, q5, q6, q7, q [all...] |
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/poly1305/ |
H A D | poly1305-armv4.S | 426 vmull.u32 q7,d3,d0[1] 432 vmlal.u32 q7,d1,d1[1] 439 vmlal.u32 q7,d0,d3[1] 445 vmlal.u32 q7,d7,d6[1] 451 vmlal.u32 q7,d5,d8[1] 516 vadd.i64 q7,q7,q4 @ h1 -> h2 522 vshrn.u64 d8,q7,#26 523 vmovn.i64 d14,q7 781 vmull.u32 q7,d2 [all...] |
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/poly1305/ |
H A D | poly1305-armv4.S | 426 vmull.u32 q7,d3,d0[1] 432 vmlal.u32 q7,d1,d1[1] 439 vmlal.u32 q7,d0,d3[1] 445 vmlal.u32 q7,d7,d6[1] 451 vmlal.u32 q7,d5,d8[1] 516 vadd.i64 q7,q7,q4 @ h1 -> h2 522 vshrn.u64 d8,q7,#26 523 vmovn.i64 d14,q7 781 vmull.u32 q7,d2 [all...] |
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/chacha/ |
H A D | chacha-armv4.S | 851 vadd.i32 q7,q3,q12 @ counter+1 857 vadd.i32 q11,q7,q12 @ counter+2 874 veor q7,q7,q4 880 vrev32.16 q7,q7 886 vadd.i32 q6,q6,q7 916 veor q13,q7,q4 922 vshr.u32 q7,q13,#24 928 vsli.32 q7,q1 [all...] |
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/chacha/ |
H A D | chacha-armv4.S | 851 vadd.i32 q7,q3,q12 @ counter+1 857 vadd.i32 q11,q7,q12 @ counter+2 874 veor q7,q7,q4 880 vrev32.16 q7,q7 886 vadd.i32 q6,q6,q7 916 veor q13,q7,q4 922 vshr.u32 q7,q13,#24 928 vsli.32 q7,q1 [all...] |
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/bn/ |
H A D | armv4-mont.S | 228 vmull.u32 q7,d28,d0[1] 246 vmlal.u32 q7,d29,d4[1] 253 vmov q6,q7 255 vmov q7,q8 277 vmlal.u32 q7,d28,d0[1] 294 vmlal.u32 q7,d29,d4[1] 301 vmov q6,q7 303 vmov q7,q8 332 veor q7,q7,q [all...] |
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/bn/ |
H A D | armv4-mont.S | 228 vmull.u32 q7,d28,d0[1] 246 vmlal.u32 q7,d29,d4[1] 253 vmov q6,q7 255 vmov q7,q8 277 vmlal.u32 q7,d28,d0[1] 294 vmlal.u32 q7,d29,d4[1] 301 vmov q6,q7 303 vmov q7,q8 332 veor q7,q7,q [all...] |
/third_party/ffmpeg/libswscale/arm/ |
H A D | output.S | 26 vpush {q4-q7} 50 vmov.16 q7, q5 @ copy 8x16-bit @ src[j ][i + {0..7}] for following inplace zip instruction 52 vzip.16 q7, q8 @ A,I,B,J,C,K,D,L,E,M,F,N,G,O,H,P 75 vpop {q4-q7}
|
H A D | yuv2rgb_neon.S | 83 vld2.8 {d14, d15}, [\src]! @ q7 = Y (interleaved) 100 vpush {q4-q7} 125 vpush {q4-q7} 145 vpush {q4-q7} 264 vpop {q4-q7}
|
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/modes/ |
H A D | ghashv8-armx.S | 144 vext.8 q7,q9,q9,#8 146 INST(0x8e,0x8e,0xa8,0xf2) @ pmull q4,q12,q7 @ H·Ii+1 147 veor q9,q9,q7 @ Karatsuba pre-processing 148 INST(0x8f,0xce,0xa9,0xf2) @ pmull2 q6,q12,q7 186 vext.8 q7,q9,q9,#8 189 INST(0x8e,0x8e,0xa8,0xf2) @ pmull q4,q12,q7 @ H·Ii+1 195 veor q9,q9,q7 @ Karatsuba pre-processing 197 INST(0x8f,0xce,0xa9,0xf2) @ pmull2 q6,q12,q7
|
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/modes/ |
H A D | ghashv8-armx.S | 144 vext.8 q7,q9,q9,#8 146 INST(0x8e,0x8e,0xa8,0xf2) @ pmull q4,q12,q7 @ H·Ii+1 147 veor q9,q9,q7 @ Karatsuba pre-processing 148 INST(0x8f,0xce,0xa9,0xf2) @ pmull2 q6,q12,q7 186 vext.8 q7,q9,q9,#8 189 INST(0x8e,0x8e,0xa8,0xf2) @ pmull q4,q12,q7 @ H·Ii+1 195 veor q9,q9,q7 @ Karatsuba pre-processing 197 INST(0x8f,0xce,0xa9,0xf2) @ pmull2 q6,q12,q7
|
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/sha/ |
H A D | sha1-armv4-large.S | 1381 vld1.8 {q6,q7},[r1]! 1391 vrev32.8 q7,q7 1398 vadd.i32 q13,q8,q7 1399 INST(0x8e,0x83,0xba,0xf3) @ sha1su1 q4,q7 1400 INST(0x4e,0xac,0x3c,0xe2) @ sha1su0 q5,q6,q7 1405 INST(0x48,0xcc,0x3e,0xe2) @ sha1su0 q6,q7,q4 1410 INST(0x4a,0xec,0x38,0xe2) @ sha1su0 q7,q4,q5 1414 INST(0x8c,0xe3,0xba,0xf3) @ sha1su1 q7,q6 1418 vadd.i32 q13,q9,q7 [all...] |
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/sha/ |
H A D | sha1-armv4-large.S | 1381 vld1.8 {q6,q7},[r1]! 1391 vrev32.8 q7,q7 1398 vadd.i32 q13,q8,q7 1399 INST(0x8e,0x83,0xba,0xf3) @ sha1su1 q4,q7 1400 INST(0x4e,0xac,0x3c,0xe2) @ sha1su0 q5,q6,q7 1405 INST(0x48,0xcc,0x3e,0xe2) @ sha1su0 q6,q7,q4 1410 INST(0x4a,0xec,0x38,0xe2) @ sha1su0 q7,q4,q5 1414 INST(0x8c,0xe3,0xba,0xf3) @ sha1su1 q7,q6 1418 vadd.i32 q13,q9,q7 [all...] |
/third_party/ffmpeg/libavcodec/x86/ |
H A D | vp9lpf.asm | 776 ; (m0: hev, [m1: flat8out], [m2: flat8in], m3: fm, m8..15: p5 p4 p1 p0 q0 q1 q6 q7) 910 ; q0 +0 -p7 -p0 +q0 +q7 . . . q7 911 ; q1 +1 -p6 -q0 +q1 +q7 q1 . . . 912 ; q2 +2 -p5 -q1 +q2 +q7 . q2 . . 913 ; q3 +3 -p4 -q2 +q3 +q7 . q3 . . 914 ; q4 +4 -p3 -q3 +q4 +q7 . q4 . . 915 ; q5 +5 -p2 -q4 +q5 +q7 . q5 . . 916 ; q6 +6 -p1 -q5 +q6 +q7 . q6 . . 958 FILTER_UPDATE m4, m5, m6, m7, [Q0], %4, 8, 3, 4, 15, 4, m1, "", rq7, [Q7], 1 ; [q0] -p7 -p0 +q0 +q7 [all...] |
H A D | vp9lpf_16bpp.asm | 86 psubw m7, m0 ; q7-q0 88 ABS2 m6, m7, m2, m3 ; abs(q6-q0) | abs(q7-q0) 92 pcmpgtw m7, reg_F ; abs(q7-q0) > F 285 %define %%q7 dst12q+stride3q 339 %define %%q7 rsp+(%%tspoff+15)*mmsize 395 mova [%%q7], m7 408 mova m7, [%%q7] 591 mova m1, [%%q7] 782 mova m7, [%%q7]
|