/third_party/ffmpeg/libavresample/arm/ |
H A D | audio_convert_neon.S | 85 vsri.32 q10, q8, #16 91 vsri.32 q11, q9, #16 95 vsri.32 q12, q0, #16 97 vsri.32 q13, q1, #16 110 2: vsri.32 q10, q8, #16 117 vsri.32 q11, q9, #16 121 vsri.32 q12, q0, #16 123 vsri.32 q13, q1, #16 126 3: vsri.32 q10, q8, #16 127 vsri [all...] |
/third_party/ffmpeg/libswresample/arm/ |
H A D | audio_convert_neon.S | 87 vsri.32 q10, q8, #16 93 vsri.32 q11, q9, #16 97 vsri.32 q12, q0, #16 99 vsri.32 q13, q1, #16 112 2: vsri.32 q10, q8, #16 119 vsri.32 q11, q9, #16 123 vsri.32 q12, q0, #16 125 vsri.32 q13, q1, #16 128 3: vsri.32 q10, q8, #16 129 vsri [all...] |
/third_party/node/deps/openssl/openssl/crypto/sha/asm/ |
H A D | keccak1600-armv4.pl | 1156 vsri.u64 q4, q13, #63 @ ROL64(C[0..1],1) 1157 vsri.u64 q15, q14, #63 @ ROL64(C[2..3],1) 1158 vsri.u64 d18, d25, #63 @ ROL64(C[4],1) 1203 vsri.u64 d2, d3, #64-44 @ A[0][1] = ROL64(A[1][1], rhotates[1][1]) 1204 vsri.u64 d4, d14, #64-43 @ A[0][2] = ROL64(A[2][2], rhotates[2][2]) 1205 vsri.u64 d6, d17, #64-21 @ A[0][3] = ROL64(A[3][3], rhotates[3][3]) 1206 vsri.u64 d8, d24, #64-14 @ A[0][4] = ROL64(A[4][4], rhotates[4][4]) 1212 vsri.u64 d3, d9, #64-20 @ A[1][1] = ROL64(A[1][4], rhotates[1][4]) 1213 vsri.u64 d14, d16, #64-25 @ A[2][2] = ROL64(A[2][3], rhotates[2][3]) 1214 vsri [all...] |
/third_party/openssl/crypto/sha/asm/ |
H A D | keccak1600-armv4.pl | 1156 vsri.u64 q4, q13, #63 @ ROL64(C[0..1],1) 1157 vsri.u64 q15, q14, #63 @ ROL64(C[2..3],1) 1158 vsri.u64 d18, d25, #63 @ ROL64(C[4],1) 1203 vsri.u64 d2, d3, #64-44 @ A[0][1] = ROL64(A[1][1], rhotates[1][1]) 1204 vsri.u64 d4, d14, #64-43 @ A[0][2] = ROL64(A[2][2], rhotates[2][2]) 1205 vsri.u64 d6, d17, #64-21 @ A[0][3] = ROL64(A[3][3], rhotates[3][3]) 1206 vsri.u64 d8, d24, #64-14 @ A[0][4] = ROL64(A[4][4], rhotates[4][4]) 1212 vsri.u64 d3, d9, #64-20 @ A[1][1] = ROL64(A[1][4], rhotates[1][4]) 1213 vsri.u64 d14, d16, #64-25 @ A[2][2] = ROL64(A[2][3], rhotates[2][3]) 1214 vsri [all...] |
/third_party/node/deps/openssl/openssl/crypto/poly1305/asm/ |
H A D | poly1305-armv4.pl | 758 vsri.u32 $H4#lo,$H3#lo,#8 @ base 2^32 -> base 2^26 761 vsri.u32 $H3#lo,$H2#lo,#14 766 vsri.u32 $H2#lo,$H1#lo,#20 770 vsri.u32 $H1#lo,$H0#lo,#26 807 vsri.u32 $H4,$H3,#8 @ base 2^32 -> base 2^26 810 vsri.u32 $H3,$H2,#14 814 vsri.u32 $H2,$H1,#20 818 vsri.u32 $H1,$H0,#26 949 vsri.u32 $H4,$H3,#8 @ base 2^32 -> base 2^26 959 vsri [all...] |
/third_party/openssl/crypto/poly1305/asm/ |
H A D | poly1305-armv4.pl | 758 vsri.u32 $H4#lo,$H3#lo,#8 @ base 2^32 -> base 2^26 761 vsri.u32 $H3#lo,$H2#lo,#14 766 vsri.u32 $H2#lo,$H1#lo,#20 770 vsri.u32 $H1#lo,$H0#lo,#26 807 vsri.u32 $H4,$H3,#8 @ base 2^32 -> base 2^26 810 vsri.u32 $H3,$H2,#14 814 vsri.u32 $H2,$H1,#20 818 vsri.u32 $H1,$H0,#26 949 vsri.u32 $H4,$H3,#8 @ base 2^32 -> base 2^26 959 vsri [all...] |
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/sha/ |
H A D | keccak1600-armv4.S | 2250 vsri.u64 q4, q13, #63 @ ROL64(C[0..1],1) 2251 vsri.u64 q15, q14, #63 @ ROL64(C[2..3],1) 2252 vsri.u64 d18, d25, #63 @ ROL64(C[4],1) 2297 vsri.u64 d2, d3, #64-44 @ A[0][1] = ROL64(A[1][1], rhotates[1][1]) 2298 vsri.u64 d4, d14, #64-43 @ A[0][2] = ROL64(A[2][2], rhotates[2][2]) 2299 vsri.u64 d6, d17, #64-21 @ A[0][3] = ROL64(A[3][3], rhotates[3][3]) 2300 vsri.u64 d8, d24, #64-14 @ A[0][4] = ROL64(A[4][4], rhotates[4][4]) 2306 vsri.u64 d3, d9, #64-20 @ A[1][1] = ROL64(A[1][4], rhotates[1][4]) 2307 vsri.u64 d14, d16, #64-25 @ A[2][2] = ROL64(A[2][3], rhotates[2][3]) 2308 vsri [all...] |
H A D | sha1-armv4-large.S | 567 vsri.32 q8,q12,#31 614 vsri.32 q9,q12,#31 660 vsri.32 q10,q12,#31 706 vsri.32 q11,q12,#31
|
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/sha/ |
H A D | keccak1600-armv4.S | 2250 vsri.u64 q4, q13, #63 @ ROL64(C[0..1],1) 2251 vsri.u64 q15, q14, #63 @ ROL64(C[2..3],1) 2252 vsri.u64 d18, d25, #63 @ ROL64(C[4],1) 2297 vsri.u64 d2, d3, #64-44 @ A[0][1] = ROL64(A[1][1], rhotates[1][1]) 2298 vsri.u64 d4, d14, #64-43 @ A[0][2] = ROL64(A[2][2], rhotates[2][2]) 2299 vsri.u64 d6, d17, #64-21 @ A[0][3] = ROL64(A[3][3], rhotates[3][3]) 2300 vsri.u64 d8, d24, #64-14 @ A[0][4] = ROL64(A[4][4], rhotates[4][4]) 2306 vsri.u64 d3, d9, #64-20 @ A[1][1] = ROL64(A[1][4], rhotates[1][4]) 2307 vsri.u64 d14, d16, #64-25 @ A[2][2] = ROL64(A[2][3], rhotates[2][3]) 2308 vsri [all...] |
H A D | sha1-armv4-large.S | 567 vsri.32 q8,q12,#31 614 vsri.32 q9,q12,#31 660 vsri.32 q10,q12,#31 706 vsri.32 q11,q12,#31
|
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/poly1305/ |
H A D | poly1305-armv4.S | 685 vsri.u32 d28,d26,#8 @ base 2^32 -> base 2^26 688 vsri.u32 d26,d24,#14 693 vsri.u32 d24,d22,#20 697 vsri.u32 d22,d20,#26 734 vsri.u32 q14,q13,#8 @ base 2^32 -> base 2^26 737 vsri.u32 q13,q12,#14 741 vsri.u32 q12,q11,#20 745 vsri.u32 q11,q10,#26 876 vsri.u32 q14,q13,#8 @ base 2^32 -> base 2^26 886 vsri [all...] |
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/poly1305/ |
H A D | poly1305-armv4.S | 685 vsri.u32 d28,d26,#8 @ base 2^32 -> base 2^26 688 vsri.u32 d26,d24,#14 693 vsri.u32 d24,d22,#20 697 vsri.u32 d22,d20,#26 734 vsri.u32 q14,q13,#8 @ base 2^32 -> base 2^26 737 vsri.u32 q13,q12,#14 741 vsri.u32 q12,q11,#20 745 vsri.u32 q11,q10,#26 876 vsri.u32 q14,q13,#8 @ base 2^32 -> base 2^26 886 vsri [all...] |
/third_party/vixl/src/aarch32/ |
H A D | assembler-aarch32.h | 5817 void vsri(Condition cond, 5822 void vsri(DataType dt, DRegister rd, DRegister rm, const DOperand& operand) { in vsri() function in vixl::aarch32::Assembler 5823 vsri(al, dt, rd, rm, operand); in vsri() 5826 void vsri(Condition cond, 5831 void vsri(DataType dt, QRegister rd, QRegister rm, const QOperand& operand) { in vsri() function in vixl::aarch32::Assembler 5832 vsri(al, dt, rd, rm, operand); in vsri()
|
H A D | disasm-aarch32.h | 2506 void vsri(Condition cond, 2512 void vsri(Condition cond,
|
H A D | assembler-aarch32.cc | 25975 void Assembler::vsri(Condition cond, in vsri() function in vixl::aarch32::Assembler 26014 Delegate(kVsri, &Assembler::vsri, cond, dt, rd, rm, operand); in vsri() 26017 void Assembler::vsri(Condition cond, in vsri() function in vixl::aarch32::Assembler 26056 Delegate(kVsri, &Assembler::vsri, cond, dt, rd, rm, operand); in vsri()
|
H A D | disasm-aarch32.cc | 6640 void Disassembler::vsri(Condition cond, in vsri() function in vixl::aarch32::Disassembler 6654 void Disassembler::vsri(Condition cond, in vsri() function in vixl::aarch32::Disassembler [all...] |
H A D | macro-assembler-aarch32.h | 12053 vsri(cond, dt, rd, rm, operand); in MacroAssembler() 12075 vsri(cond, dt, rd, rm, operand); in MacroAssembler()
|
/third_party/node/deps/v8/src/codegen/arm/ |
H A D | assembler-arm.h | 947 void vsri(NeonSize size, DwVfpRegister dst, DwVfpRegister src, int shift);
|
H A D | macro-assembler-arm.cc | 1024 vsri(Neon64, dst_d_reg, src_d_reg, 32); in CallRecordWriteStub()
|
H A D | assembler-arm.cc | 4718 void Assembler::vsri(NeonSize size, DwVfpRegister dst, DwVfpRegister src, in vsri() function in v8::internal::Assembler 4721 // Dd = vsri(Dm, bits) SIMD shift right and insert. in vsri()
|