/third_party/vixl/test/aarch32/ |
H A D | test-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-a32.cc | 109 {{F32, d21, d26, d7}, false, al, "F32 d21 d26 d7", "F32_d21_d26_d7"}, 112 {{F32, d26, d1, d7}, false, al, "F32 d26 d1 d7", "F32_d26_d1_d7"}, 123 {{F32, d6, d26, d20}, false, al, "F32 d6 d26 d20", "F32_d6_d26_d20"}, 132 {{F32, d16, d23, d26}, false, al, "F32 d16 d23 d26", "F32_d16_d23_d26"}, 144 {{F32, d26, d30, d0}, false, al, "F32 d26 d3 [all...] |
H A D | test-assembler-cond-dt-drt-drd-drn-drm-float-f32-only-t32.cc | 109 {{F32, d21, d26, d7}, false, al, "F32 d21 d26 d7", "F32_d21_d26_d7"}, 112 {{F32, d26, d1, d7}, false, al, "F32 d26 d1 d7", "F32_d26_d1_d7"}, 123 {{F32, d6, d26, d20}, false, al, "F32 d6 d26 d20", "F32_d6_d26_d20"}, 132 {{F32, d16, d23, d26}, false, al, "F32 d16 d23 d26", "F32_d16_d23_d26"}, 144 {{F32, d26, d30, d0}, false, al, "F32 d26 d3 [all...] |
H A D | test-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-a32.cc | 108 {{F64, d26, d28, d26}, false, al, "F64 d26 d28 d26", "F64_d26_d28_d26"}, 112 {{F32, d4, d26, d15}, false, al, "F32 d4 d26 d15", "F32_d4_d26_d15"}, 124 {{F64, d22, d14, d26}, false, al, "F64 d22 d14 d26", "F64_d22_d14_d26"}, 138 {{F32, d5, d26, d24}, false, al, "F32 d5 d26 d2 [all...] |
H A D | test-assembler-cond-dt-drt-drd-drn-drm-float-not-f16-t32.cc | 108 {{F64, d26, d28, d26}, false, al, "F64 d26 d28 d26", "F64_d26_d28_d26"}, 112 {{F32, d4, d26, d15}, false, al, "F32 d4 d26 d15", "F32_d4_d26_d15"}, 124 {{F64, d22, d14, d26}, false, al, "F64 d22 d14 d26", "F64_d22_d14_d26"}, 138 {{F32, d5, d26, d24}, false, al, "F32 d5 d26 d2 [all...] |
H A D | test-simulator-cond-dt-drt-drd-drn-drm-float-f64-a32.cc | 447 {{F64, d27, d26, d30}, 448 "F64 d27 d26 d30", 592 {{F64, d17, d26, d0}, 593 "F64 d17 d26 d0", 687 {{F64, d19, d26, d15}, 688 "F64 d19 d26 d15", 692 {{F64, d23, d2, d26}, 693 "F64 d23 d2 d26", 697 {{F64, d25, d26, d10}, 698 "F64 d25 d26 d1 [all...] |
H A D | test-simulator-cond-dt-drt-drd-drn-drm-float-f64-t32.cc | 447 {{F64, d27, d26, d30}, 448 "F64 d27 d26 d30", 592 {{F64, d17, d26, d0}, 593 "F64 d17 d26 d0", 687 {{F64, d19, d26, d15}, 688 "F64 d19 d26 d15", 692 {{F64, d23, d2, d26}, 693 "F64 d23 d2 d26", 697 {{F64, d25, d26, d10}, 698 "F64 d25 d26 d1 [all...] |
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/bn/ |
H A D | armv4-gf2m.S | 172 vmov d26, r2, r1 178 vext.8 d2, d26, d26, #1 @ A1 181 vmull.p8 q0, d26, d0 @ E = A*B1 182 vext.8 d4, d26, d26, #2 @ A2 185 vmull.p8 q8, d26, d16 @ G = A*B2 186 vext.8 d6, d26, d26, #3 @ A3 191 vmull.p8 q0, d26, d [all...] |
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/bn/ |
H A D | armv4-gf2m.S | 172 vmov d26, r2, r1 178 vext.8 d2, d26, d26, #1 @ A1 181 vmull.p8 q0, d26, d0 @ E = A*B1 182 vext.8 d4, d26, d26, #2 @ A2 185 vmull.p8 q8, d26, d16 @ G = A*B2 186 vext.8 d6, d26, d26, #3 @ A3 191 vmull.p8 q0, d26, d [all...] |
/third_party/ffmpeg/libavcodec/arm/ |
H A D | vp9itxfm_16bpp_neon.S | 276 vrshrn.s64 d26, q13, #14 472 dmbutterfly d26, d27, d22, d23, d3[0], d3[1], q2, q3, q4, q5 @ q13 = t5a, q11 = t6a 481 dmbutterfly0 d4, d5, d10, d11, q11, q13, q9, q13, d18, d19, d26, d27, q2, q5, q11, q12 @ q2 = t6, q5 = t5 501 dmbutterfly_l q6, q7, q4, q5, d26, d27, d20, d21, d1[1], d1[0] @ q6,q7 = t3a, q4,q5 = t2a 521 dmbutterfly0 d22, d23, d24, d25, q9, q12, q6, q13, d12, d13, d26, d27, q9, q10 @ q11 = -out[3], q12 = out[4] 527 dmbutterfly0 d20, d21, d26, d27, q2, q4, q3, q5, d6, d7, d10, d11, q6, q7 @ q10 = out[2], q13 = -out[5] 593 transpose32_q_2x_4x4 q8, q9, q10, q11, q12, q13, q14, q15, d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31 838 butterfly d8, d26, d20, d26 @ d8 = t2a, d26 [all...] |
H A D | vp9lpf_neon.S | 89 vsubl.u8 q5, d20, d26 @ p1 - q1 136 vmovl.u8 q6, d26 @ q1 165 vabd.u8 \tmp1, d25, d26 @ abs(q1 - q2) 166 vabd.u8 \tmp2, d26, d27 @ abs(q2 - q3) 194 vabd.u8 \tmp2, d26, d24 @ abs(q2 - q0) 309 vaddl.u8 \tmpq4, d23, d26 332 vaddl.u8 \tmpq2, d26, d27 349 vbit d26, \tmp6, d6 366 @ If this part is skipped, the output is read from d21-d26 (which is the input 383 vaddl.u8 q7, d19, d26 [all...] |
H A D | hevcdsp_deblock_neon.S | 69 vmovl.u8 q13, d26 284 vqmovun.s16 d26, q13 299 vld1.8 {d26}, [r0], r1 303 transpose_8x8 d16, d18, d20, d22, d24, d26, d28, d30 305 transpose_8x8 d16, d18, d20, d22, d24, d26, d28, d30 311 vst1.8 {d26}, [r0], r1 329 vld1.8 {d26}, [r0], r1 339 vst1.8 {d26}, [r0], r1
|
H A D | fft_neon.S | 69 vmul.f32 d26, d17, d28 @ -a2r*w,a2i*w 82 vadd.f32 d24, d24, d26 @ a2r+a2i,a2i-a2r t1,t2 90 vsub.f32 d4, d26, d27 113 vsub.f32 d19, d26, d27 141 vswp d25, d26 @ q12{r8,i8,i10,r11} q13{r9,i9,i11,r10} 152 vswp d1, d26 @ q0{t1,t2,t3,t4} q13{t6,t5,t7,t8} 190 vadd.f32 d0, d30, d26 193 vsub.f32 d3, d30, d26 200 vst2.32 {d26-d27},[r0,:128], r1
|
H A D | h264dsp_neon.S | 146 vld1.8 {d26}, [r0], r1 190 vabd.u8 d26, d16, d0 @ abs(p0 - q0) 198 vclt.u8 d26, d26, d22 @ < alpha 206 vand d26, d26, d28 208 vand d26, d26, d30 210 vand d4, d4, d26
|
H A D | hevcdsp_sao_neon.S | 136 vqmovun.s16 d26, q12 137 vst1.8 d26, [r0], r2 169 vqmovun.s16 d26, q12 170 vst1.32 d26[0], [r0], r2
|
H A D | rdft_neon.S | 47 vdup.32 d26, r8 61 veor d5, d26, d5 97 veor d5, d26, d5
|
H A D | vp9itxfm_neon.S | 235 vrshrn.s32 d26, q13, #14 239 vadd.i16 \c0, d18, d26 240 vsub.i16 \c3, d18, d26 355 dmbutterfly d26, d27, d22, d23, d1[2], d1[3], q2, q3, q4, q5 @ q13 = t5a, q11 = t6a 364 dmbutterfly0 d4, d5, d10, d11, q11, q13, q9, q13, d18, d19, d26, d27, q2, q5, q11, q12 @ q2 = t6, q5 = t5 379 dmbutterfly_l q6, q7, q4, q5, d26, d27, d20, d21, d2[3], d2[2] @ q6,q7 = t3a, q4,q5 = t2a 394 dmbutterfly0 d22, d23, d24, d25, q9, q12, q6, q13, d12, d13, d26, d27, q9, q10 @ q11 = -out[3], q12 = out[4] 400 dmbutterfly0 d20, d21, d26, d27, q2, q4, q3, q5, d6, d7, d10, d11, q6, q7 @ q10 = out[2], q13 = -out[5] 460 vswp d19, d26 571 butterfly d4, d26, d2 [all...] |
H A D | h264qpel_neon.S | 251 vld1.8 {d26}, [r1], r3 263 lowpass_8 d26, d27, d28, d29, d26, d28 264 transpose_8x8 d8, d10, d12, d14, d22, d24, d26, d28 281 vrhadd.u8 d26, d26, d27 292 vst1.8 {d26}, [r0,:64], r2 327 vld1.8 {d26}, [r1], r3 339 lowpass_8 d26, d27, d28, d29, d26, d2 [all...] |
/third_party/ffmpeg/libavcodec/ |
H A D | faanidct.c | 54 FLOAT s04, d04, s17, d17, s26, d26, s53, d53; in p8idct() local 75 d26 = temp[2*x + i] - temp[6*x + i]; in p8idct() 76 d26*= 2*A4; in p8idct() 77 d26-= s26; in p8idct() 84 os16= d04 + d26; in p8idct() 85 os25= d04 - d26; in p8idct()
|
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/modes/ |
H A D | ghash-armv4.S | 363 vshr.u64 d26,d6,#63 367 vorr d7,d26 @ H<<<=1 381 vldmia r1,{d26,d27} @ load twisted H 387 veor d28,d26,d27 @ Karatsuba pre-processing 399 vldmia r1,{d26,d27} @ load twisted H 405 veor d28,d26,d27 @ Karatsuba pre-processing 415 vext.8 d16, d26, d26, #1 @ A1 418 vmull.p8 q0, d26, d0 @ E = A*B1 419 vext.8 d18, d26, d2 [all...] |
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/modes/ |
H A D | ghash-armv4.S | 363 vshr.u64 d26,d6,#63 367 vorr d7,d26 @ H<<<=1 381 vldmia r1,{d26,d27} @ load twisted H 387 veor d28,d26,d27 @ Karatsuba pre-processing 399 vldmia r1,{d26,d27} @ load twisted H 405 veor d28,d26,d27 @ Karatsuba pre-processing 415 vext.8 d16, d26, d26, #1 @ A1 418 vmull.p8 q0, d26, d0 @ E = A*B1 419 vext.8 d18, d26, d2 [all...] |
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/poly1305/ |
H A D | poly1305-armv4.S | 674 vld4.32 {d20[0],d22[0],d24[0],d26[0]},[r1]! 685 vsri.u32 d28,d26,#8 @ base 2^32 -> base 2^26 686 vshl.u32 d26,d26,#18 688 vsri.u32 d26,d24,#14 692 vbic.i32 d26,#0xfc000000 698 vadd.i32 d27,d26,d16 720 vld4.32 {d20,d22,d24,d26},[r1] @ inp[0:1] 784 vadd.i32 d26,d26,d1 [all...] |
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/poly1305/ |
H A D | poly1305-armv4.S | 674 vld4.32 {d20[0],d22[0],d24[0],d26[0]},[r1]! 685 vsri.u32 d28,d26,#8 @ base 2^32 -> base 2^26 686 vshl.u32 d26,d26,#18 688 vsri.u32 d26,d24,#14 692 vbic.i32 d26,#0xfc000000 698 vadd.i32 d27,d26,d16 720 vld4.32 {d20,d22,d24,d26},[r1] @ inp[0:1] 784 vadd.i32 d26,d26,d1 [all...] |
/third_party/vixl/test/aarch64/ |
H A D | test-assembler-fp-aarch64.cc | 443 __ Fmov(d26, -0.0); in TEST() 460 __ Fadd(d9, d26, d31); in TEST() 535 __ Fmov(d26, -0.0); in TEST() 552 __ Fsub(d9, d26, d31); in TEST() 626 __ Fmov(d26, -0.0); in TEST() 643 __ Fmul(d9, d26, d26); in TEST() 1341 __ Fmov(d26, -0.0); in TEST() 1358 __ Fdiv(d9, d26, d31); in TEST() 2199 __ Fmov(d26, 4294967296. in TEST() [all...] |
/third_party/node/deps/openssl/openssl/crypto/sha/asm/ |
H A D | keccak1600-armv4.pl | 1142 veor d26, d26, d27 @ C[0]=A[0][0]^A[1][0]^A[2][0]^A[3][0] 1170 veor d2, d2, d26 @ A[0][1] ^= D[1] 1171 veor d3, d3, d26 @ A[1][1] ^= D[1] 1172 veor d12, d12, d26 @ A[2][1] ^= D[1] 1173 veor d13, d13, d26 @ A[3][1] ^= D[1] 1174 veor d21, d21, d26 @ A[4][1] ^= D[1] 1175 vmov d26, d27 1195 vmov d26, d2 @ C[1] = A[0][1] 1245 vshl.u64 d10, d26, # [all...] |
/third_party/openssl/crypto/sha/asm/ |
H A D | keccak1600-armv4.pl | 1142 veor d26, d26, d27 @ C[0]=A[0][0]^A[1][0]^A[2][0]^A[3][0] 1170 veor d2, d2, d26 @ A[0][1] ^= D[1] 1171 veor d3, d3, d26 @ A[1][1] ^= D[1] 1172 veor d12, d12, d26 @ A[2][1] ^= D[1] 1173 veor d13, d13, d26 @ A[3][1] ^= D[1] 1174 veor d21, d21, d26 @ A[4][1] ^= D[1] 1175 vmov d26, d27 1195 vmov d26, d2 @ C[1] = A[0][1] 1245 vshl.u64 d10, d26, # [all...] |