Home
last modified time | relevance | path

Searched refs:vsri (Results 1 - 20 of 20) sorted by relevance

/third_party/ffmpeg/libavresample/arm/
H A Daudio_convert_neon.S85 vsri.32 q10, q8, #16
91 vsri.32 q11, q9, #16
95 vsri.32 q12, q0, #16
97 vsri.32 q13, q1, #16
110 2: vsri.32 q10, q8, #16
117 vsri.32 q11, q9, #16
121 vsri.32 q12, q0, #16
123 vsri.32 q13, q1, #16
126 3: vsri.32 q10, q8, #16
127 vsri
[all...]
/third_party/ffmpeg/libswresample/arm/
H A Daudio_convert_neon.S87 vsri.32 q10, q8, #16
93 vsri.32 q11, q9, #16
97 vsri.32 q12, q0, #16
99 vsri.32 q13, q1, #16
112 2: vsri.32 q10, q8, #16
119 vsri.32 q11, q9, #16
123 vsri.32 q12, q0, #16
125 vsri.32 q13, q1, #16
128 3: vsri.32 q10, q8, #16
129 vsri
[all...]
/third_party/node/deps/openssl/openssl/crypto/sha/asm/
H A Dkeccak1600-armv4.pl1156 vsri.u64 q4, q13, #63 @ ROL64(C[0..1],1)
1157 vsri.u64 q15, q14, #63 @ ROL64(C[2..3],1)
1158 vsri.u64 d18, d25, #63 @ ROL64(C[4],1)
1203 vsri.u64 d2, d3, #64-44 @ A[0][1] = ROL64(A[1][1], rhotates[1][1])
1204 vsri.u64 d4, d14, #64-43 @ A[0][2] = ROL64(A[2][2], rhotates[2][2])
1205 vsri.u64 d6, d17, #64-21 @ A[0][3] = ROL64(A[3][3], rhotates[3][3])
1206 vsri.u64 d8, d24, #64-14 @ A[0][4] = ROL64(A[4][4], rhotates[4][4])
1212 vsri.u64 d3, d9, #64-20 @ A[1][1] = ROL64(A[1][4], rhotates[1][4])
1213 vsri.u64 d14, d16, #64-25 @ A[2][2] = ROL64(A[2][3], rhotates[2][3])
1214 vsri
[all...]
/third_party/openssl/crypto/sha/asm/
H A Dkeccak1600-armv4.pl1156 vsri.u64 q4, q13, #63 @ ROL64(C[0..1],1)
1157 vsri.u64 q15, q14, #63 @ ROL64(C[2..3],1)
1158 vsri.u64 d18, d25, #63 @ ROL64(C[4],1)
1203 vsri.u64 d2, d3, #64-44 @ A[0][1] = ROL64(A[1][1], rhotates[1][1])
1204 vsri.u64 d4, d14, #64-43 @ A[0][2] = ROL64(A[2][2], rhotates[2][2])
1205 vsri.u64 d6, d17, #64-21 @ A[0][3] = ROL64(A[3][3], rhotates[3][3])
1206 vsri.u64 d8, d24, #64-14 @ A[0][4] = ROL64(A[4][4], rhotates[4][4])
1212 vsri.u64 d3, d9, #64-20 @ A[1][1] = ROL64(A[1][4], rhotates[1][4])
1213 vsri.u64 d14, d16, #64-25 @ A[2][2] = ROL64(A[2][3], rhotates[2][3])
1214 vsri
[all...]
/third_party/node/deps/openssl/openssl/crypto/poly1305/asm/
H A Dpoly1305-armv4.pl758 vsri.u32 $H4#lo,$H3#lo,#8 @ base 2^32 -> base 2^26
761 vsri.u32 $H3#lo,$H2#lo,#14
766 vsri.u32 $H2#lo,$H1#lo,#20
770 vsri.u32 $H1#lo,$H0#lo,#26
807 vsri.u32 $H4,$H3,#8 @ base 2^32 -> base 2^26
810 vsri.u32 $H3,$H2,#14
814 vsri.u32 $H2,$H1,#20
818 vsri.u32 $H1,$H0,#26
949 vsri.u32 $H4,$H3,#8 @ base 2^32 -> base 2^26
959 vsri
[all...]
/third_party/openssl/crypto/poly1305/asm/
H A Dpoly1305-armv4.pl758 vsri.u32 $H4#lo,$H3#lo,#8 @ base 2^32 -> base 2^26
761 vsri.u32 $H3#lo,$H2#lo,#14
766 vsri.u32 $H2#lo,$H1#lo,#20
770 vsri.u32 $H1#lo,$H0#lo,#26
807 vsri.u32 $H4,$H3,#8 @ base 2^32 -> base 2^26
810 vsri.u32 $H3,$H2,#14
814 vsri.u32 $H2,$H1,#20
818 vsri.u32 $H1,$H0,#26
949 vsri.u32 $H4,$H3,#8 @ base 2^32 -> base 2^26
959 vsri
[all...]
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/sha/
H A Dkeccak1600-armv4.S2250 vsri.u64 q4, q13, #63 @ ROL64(C[0..1],1)
2251 vsri.u64 q15, q14, #63 @ ROL64(C[2..3],1)
2252 vsri.u64 d18, d25, #63 @ ROL64(C[4],1)
2297 vsri.u64 d2, d3, #64-44 @ A[0][1] = ROL64(A[1][1], rhotates[1][1])
2298 vsri.u64 d4, d14, #64-43 @ A[0][2] = ROL64(A[2][2], rhotates[2][2])
2299 vsri.u64 d6, d17, #64-21 @ A[0][3] = ROL64(A[3][3], rhotates[3][3])
2300 vsri.u64 d8, d24, #64-14 @ A[0][4] = ROL64(A[4][4], rhotates[4][4])
2306 vsri.u64 d3, d9, #64-20 @ A[1][1] = ROL64(A[1][4], rhotates[1][4])
2307 vsri.u64 d14, d16, #64-25 @ A[2][2] = ROL64(A[2][3], rhotates[2][3])
2308 vsri
[all...]
H A Dsha1-armv4-large.S567 vsri.32 q8,q12,#31
614 vsri.32 q9,q12,#31
660 vsri.32 q10,q12,#31
706 vsri.32 q11,q12,#31
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/sha/
H A Dkeccak1600-armv4.S2250 vsri.u64 q4, q13, #63 @ ROL64(C[0..1],1)
2251 vsri.u64 q15, q14, #63 @ ROL64(C[2..3],1)
2252 vsri.u64 d18, d25, #63 @ ROL64(C[4],1)
2297 vsri.u64 d2, d3, #64-44 @ A[0][1] = ROL64(A[1][1], rhotates[1][1])
2298 vsri.u64 d4, d14, #64-43 @ A[0][2] = ROL64(A[2][2], rhotates[2][2])
2299 vsri.u64 d6, d17, #64-21 @ A[0][3] = ROL64(A[3][3], rhotates[3][3])
2300 vsri.u64 d8, d24, #64-14 @ A[0][4] = ROL64(A[4][4], rhotates[4][4])
2306 vsri.u64 d3, d9, #64-20 @ A[1][1] = ROL64(A[1][4], rhotates[1][4])
2307 vsri.u64 d14, d16, #64-25 @ A[2][2] = ROL64(A[2][3], rhotates[2][3])
2308 vsri
[all...]
H A Dsha1-armv4-large.S567 vsri.32 q8,q12,#31
614 vsri.32 q9,q12,#31
660 vsri.32 q10,q12,#31
706 vsri.32 q11,q12,#31
/third_party/node/deps/openssl/config/archs/linux-armv4/asm/crypto/poly1305/
H A Dpoly1305-armv4.S685 vsri.u32 d28,d26,#8 @ base 2^32 -> base 2^26
688 vsri.u32 d26,d24,#14
693 vsri.u32 d24,d22,#20
697 vsri.u32 d22,d20,#26
734 vsri.u32 q14,q13,#8 @ base 2^32 -> base 2^26
737 vsri.u32 q13,q12,#14
741 vsri.u32 q12,q11,#20
745 vsri.u32 q11,q10,#26
876 vsri.u32 q14,q13,#8 @ base 2^32 -> base 2^26
886 vsri
[all...]
/third_party/node/deps/openssl/config/archs/linux-armv4/asm_avx2/crypto/poly1305/
H A Dpoly1305-armv4.S685 vsri.u32 d28,d26,#8 @ base 2^32 -> base 2^26
688 vsri.u32 d26,d24,#14
693 vsri.u32 d24,d22,#20
697 vsri.u32 d22,d20,#26
734 vsri.u32 q14,q13,#8 @ base 2^32 -> base 2^26
737 vsri.u32 q13,q12,#14
741 vsri.u32 q12,q11,#20
745 vsri.u32 q11,q10,#26
876 vsri.u32 q14,q13,#8 @ base 2^32 -> base 2^26
886 vsri
[all...]
/third_party/vixl/src/aarch32/
H A Dassembler-aarch32.h5817 void vsri(Condition cond,
5822 void vsri(DataType dt, DRegister rd, DRegister rm, const DOperand& operand) { in vsri() function in vixl::aarch32::Assembler
5823 vsri(al, dt, rd, rm, operand); in vsri()
5826 void vsri(Condition cond,
5831 void vsri(DataType dt, QRegister rd, QRegister rm, const QOperand& operand) { in vsri() function in vixl::aarch32::Assembler
5832 vsri(al, dt, rd, rm, operand); in vsri()
H A Ddisasm-aarch32.h2506 void vsri(Condition cond,
2512 void vsri(Condition cond,
H A Dassembler-aarch32.cc25975 void Assembler::vsri(Condition cond, in vsri() function in vixl::aarch32::Assembler
26014 Delegate(kVsri, &Assembler::vsri, cond, dt, rd, rm, operand); in vsri()
26017 void Assembler::vsri(Condition cond, in vsri() function in vixl::aarch32::Assembler
26056 Delegate(kVsri, &Assembler::vsri, cond, dt, rd, rm, operand); in vsri()
H A Ddisasm-aarch32.cc6640 void Disassembler::vsri(Condition cond, in vsri() function in vixl::aarch32::Disassembler
6654 void Disassembler::vsri(Condition cond, in vsri() function in vixl::aarch32::Disassembler
[all...]
H A Dmacro-assembler-aarch32.h12053 vsri(cond, dt, rd, rm, operand); in MacroAssembler()
12075 vsri(cond, dt, rd, rm, operand); in MacroAssembler()
/third_party/node/deps/v8/src/codegen/arm/
H A Dassembler-arm.h947 void vsri(NeonSize size, DwVfpRegister dst, DwVfpRegister src, int shift);
H A Dmacro-assembler-arm.cc1024 vsri(Neon64, dst_d_reg, src_d_reg, 32); in CallRecordWriteStub()
H A Dassembler-arm.cc4718 void Assembler::vsri(NeonSize size, DwVfpRegister dst, DwVfpRegister src, in vsri() function in v8::internal::Assembler
4721 // Dd = vsri(Dm, bits) SIMD shift right and insert. in vsri()

Completed in 154 milliseconds