Lines Matching defs:F64
23317 // VMLA{<c>}{<q>}.F64 <Dd>, <Dn>, <Dm> ; T2
23319 F64,
23330 // VMLS{<c>}{<q>}.F64 <Dd>, <Dn>, <Dm> ; T2
23332 F64,
23369 // VNMLS{<c>}{<q>}.F64 <Dd>, <Dn>, <Dm> ; T1
23371 F64,
23382 // VNMLA{<c>}{<q>}.F64 <Dd>, <Dn>, <Dm> ; T1
23384 F64,
23421 // VMUL{<c>}{<q>}.F64 {<Dd>}, <Dn>, <Dm> ; T2
23423 F64,
23434 // VNMUL{<c>}{<q>}.F64 {<Dd>}, <Dn>, <Dm> ; T1
23436 F64,
23473 // VADD{<c>}{<q>}.F64 {<Dd>}, <Dn>, <Dm> ; T2
23475 F64,
23486 // VSUB{<c>}{<q>}.F64 {<Dd>}, <Dn>, <Dm> ; T2
23488 F64,
23512 // VDIV{<c>}{<q>}.F64 {<Dd>}, <Dn>, <Dm> ; T1
23514 F64,
23551 // VFNMS{<c>}{<q>}.F64 <Dd>, <Dn>, <Dm> ; T1
23553 F64,
23564 // VFNMA{<c>}{<q>}.F64 <Dd>, <Dn>, <Dm> ; T1
23566 F64,
23603 // VFMA{<c>}{<q>}.F64 <Dd>, <Dn>, <Dm> ; T2
23605 F64,
23616 // VFMS{<c>}{<q>}.F64 <Dd>, <Dn>, <Dm> ; T2
23618 F64,
23833 // VCVT{<c>}{<q>}.F64.F32 <Dd>, <Sm> ; T1
23835 F64,
23977 // VMOV{<c>}{<q>}.F64 <Dd>, #<imm> ; T2
23978 vmov(CurrentCond(), F64, DRegister(rd), imm);
23994 // VMOV{<c>}{<q>}.F64 <Dd>, <Dm> ; T2
23996 F64,
24005 // VABS{<c>}{<q>}.F64 <Dd>, <Dm> ; T2
24007 F64,
24016 // VNEG{<c>}{<q>}.F64 <Dd>, <Dm> ; T2
24018 F64,
24027 // VSQRT{<c>}{<q>}.F64 <Dd>, <Dm> ; T1
24029 F64,
24044 // VCVTB{<c>}{<q>}.F64.F16 <Dd>, <Sm> ; T1
24046 F64,
24056 // VCVTT{<c>}{<q>}.F64.F16 <Dd>, <Sm> ; T1
24058 F64,
24068 // VCVTB{<c>}{<q>}.F16.F64 <Sd>, <Dm> ; T1
24071 F64,
24080 // VCVTT{<c>}{<q>}.F16.F64 <Sd>, <Dm> ; T1
24083 F64,
24098 // VCMP{<c>}{<q>}.F64 <Dd>, <Dm> ; T1
24100 F64,
24109 // VCMPE{<c>}{<q>}.F64 <Dd>, <Dm> ; T1
24111 F64,
24119 // VCMP{<c>}{<q>}.F64 <Dd>, #0.0 ; T2
24120 vcmp(CurrentCond(), F64, DRegister(rd), 0.0);
24129 // VCMPE{<c>}{<q>}.F64 <Dd>, #0.0 ; T2
24130 vcmpe(CurrentCond(), F64, DRegister(rd), 0.0);
24146 // VRINTR{<c>}{<q>}.F64 <Dd>, <Dm> ; T1
24148 F64,
24157 // VRINTZ{<c>}{<q>}.F64 <Dd>, <Dm> ; T1
24159 F64,
24168 // VRINTX{<c>}{<q>}.F64 <Dd>, <Dm> ; T1
24170 F64,
24179 // VCVT{<c>}{<q>}.F32.F64 <Sd>, <Dm> ; T1
24182 F64,
24200 // VCVT{<c>}{<q>}.F64.<dt> <Dd>, <Sm> ; T1
24202 F64,
24226 // VCVT{<c>}{<q>}.F64.<dt> <Ddm>, <Ddm>, #<fbits> ; T1
24228 F64,
24242 // VCVTR{<c>}{<q>}.U32.F64 <Sd>, <Dm> ; T1
24245 F64,
24254 // VCVT{<c>}{<q>}.U32.F64 <Sd>, <Dm> ; T1
24257 F64,
24266 // VCVTR{<c>}{<q>}.S32.F64 <Sd>, <Dm> ; T1
24269 F64,
24278 // VCVT{<c>}{<q>}.S32.F64 <Sd>, <Dm> ; T1
24281 F64,
24304 // VCVT{<c>}{<q>}.<dt>.F64 <Ddm>, <Ddm>, #<fbits> ; T1
24307 F64,
24333 // VSELEQ.F64 <Dd>, <Dn>, <Dm> ; T1
24334 vseleq(F64, DRegister(rd), DRegister(rn), DRegister(rm));
24357 // VSELVS.F64 <Dd>, <Dn>, <Dm> ; T1
24358 vselvs(F64, DRegister(rd), DRegister(rn), DRegister(rm));
24381 // VSELGE.F64 <Dd>, <Dn>, <Dm> ; T1
24382 vselge(F64, DRegister(rd), DRegister(rn), DRegister(rm));
24405 // VSELGT.F64 <Dd>, <Dn>, <Dm> ; T1
24406 vselgt(F64, DRegister(rd), DRegister(rn), DRegister(rm));
24441 // VMAXNM{<q>}.F64 <Dd>, <Dn>, <Dm> ; T2
24442 vmaxnm(F64, DRegister(rd), DRegister(rn), DRegister(rm));
24453 // VMINNM{<q>}.F64 <Dd>, <Dn>, <Dm> ; T2
24454 vminnm(F64, DRegister(rd), DRegister(rn), DRegister(rm));
24577 // VRINTA{<q>}.F64 <Dd>, <Dm> ; T1
24578 vrinta(F64, DRegister(rd), DRegister(rm));
24589 // VRINTN{<q>}.F64 <Dd>, <Dm> ; T1
24590 vrintn(F64, DRegister(rd), DRegister(rm));
24601 // VRINTP{<q>}.F64 <Dd>, <Dm> ; T1
24602 vrintp(F64, DRegister(rd), DRegister(rm));
24613 // VRINTM{<q>}.F64 <Dd>, <Dm> ; T1
24614 vrintm(F64, DRegister(rd), DRegister(rm));
24629 // VCVTA{<q>}.<dt>.F64 <Sd>, <Dm> ; T1
24630 vcvta(dt, F64, SRegister(rd), DRegister(rm));
24642 // VCVTN{<q>}.<dt>.F64 <Sd>, <Dm> ; T1
24643 vcvtn(dt, F64, SRegister(rd), DRegister(rm));
24655 // VCVTP{<q>}.<dt>.F64 <Sd>, <Dm> ; T1
24656 vcvtp(dt, F64, SRegister(rd), DRegister(rm));
24668 // VCVTM{<q>}.<dt>.F64 <Sd>, <Dm> ; T1
24669 vcvtm(dt, F64, SRegister(rd), DRegister(rm));
55238 // VSELEQ.F64 <Dd>, <Dn>, <Dm> ; A1
55239 vseleq(F64, DRegister(rd), DRegister(rn), DRegister(rm));
55256 // VSELVS.F64 <Dd>, <Dn>, <Dm> ; A1
55257 vselvs(F64, DRegister(rd), DRegister(rn), DRegister(rm));
55274 // VSELGE.F64 <Dd>, <Dn>, <Dm> ; A1
55275 vselge(F64, DRegister(rd), DRegister(rn), DRegister(rm));
55292 // VSELGT.F64 <Dd>, <Dn>, <Dm> ; A1
55293 vselgt(F64, DRegister(rd), DRegister(rn), DRegister(rm));
55319 // VMAXNM{<q>}.F64 <Dd>, <Dn>, <Dm> ; A2
55320 vmaxnm(F64, DRegister(rd), DRegister(rn), DRegister(rm));
55328 // VMINNM{<q>}.F64 <Dd>, <Dn>, <Dm> ; A2
55329 vminnm(F64, DRegister(rd), DRegister(rn), DRegister(rm));
55449 // VRINTA{<q>}.F64 <Dd>, <Dm> ; A1
55450 vrinta(F64, DRegister(rd), DRegister(rm));
55461 // VRINTN{<q>}.F64 <Dd>, <Dm> ; A1
55462 vrintn(F64, DRegister(rd), DRegister(rm));
55473 // VRINTP{<q>}.F64 <Dd>, <Dm> ; A1
55474 vrintp(F64, DRegister(rd), DRegister(rm));
55485 // VRINTM{<q>}.F64 <Dd>, <Dm> ; A1
55486 vrintm(F64, DRegister(rd), DRegister(rm));
55501 // VCVTA{<q>}.<dt>.F64 <Sd>, <Dm> ; A1
55502 vcvta(dt, F64, SRegister(rd), DRegister(rm));
55514 // VCVTN{<q>}.<dt>.F64 <Sd>, <Dm> ; A1
55515 vcvtn(dt, F64, SRegister(rd), DRegister(rm));
55527 // VCVTP{<q>}.<dt>.F64 <Sd>, <Dm> ; A1
55528 vcvtp(dt, F64, SRegister(rd), DRegister(rm));
55540 // VCVTM{<q>}.<dt>.F64 <Sd>, <Dm> ; A1
55541 vcvtm(dt, F64, SRegister(rd), DRegister(rm));
65612 // VMLA{<c>}{<q>}.F64 <Dd>, <Dn>, <Dm> ; A2
65614 F64,
65630 // VMLS{<c>}{<q>}.F64 <Dd>, <Dn>, <Dm> ; A2
65632 F64,
65684 // VMUL{<c>}{<q>}.F64 {<Dd>}, <Dn>, <Dm> ; A2
65686 F64,
65702 // VNMUL{<c>}{<q>}.F64 {<Dd>}, <Dn>, <Dm> ; A1
65704 F64,
65738 // VDIV{<c>}{<q>}.F64 {<Dd>}, <Dn>, <Dm> ; A1
65740 F64,
65792 // VFMA{<c>}{<q>}.F64 <Dd>, <Dn>, <Dm> ; A2
65794 F64,
65810 // VFMS{<c>}{<q>}.F64 <Dd>, <Dn>, <Dm> ; A2
65812 F64,
66022 // VNMLS{<c>}{<q>}.F64 <Dd>, <Dn>, <Dm> ; A1
66024 F64,
66040 // VNMLA{<c>}{<q>}.F64 <Dd>, <Dn>, <Dm> ; A1
66042 F64,
66094 // VADD{<c>}{<q>}.F64 {<Dd>}, <Dn>, <Dm> ; A2
66096 F64,
66112 // VSUB{<c>}{<q>}.F64 {<Dd>}, <Dn>, <Dm> ; A2
66114 F64,
66166 // VFNMS{<c>}{<q>}.F64 <Dd>, <Dn>, <Dm> ; A1
66168 F64,
66184 // VFNMA{<c>}{<q>}.F64 <Dd>, <Dn>, <Dm> ; A1
66186 F64,
66468 // VCVT{<c>}{<q>}.F64.F32 <Dd>, <Sm> ; A1
66470 F64,
66652 // VMOV{<c>}{<q>}.F64 <Dd>, #<imm> ; A2
66653 vmov(condition, F64, DRegister(rd), imm);
66674 // VMOV{<c>}{<q>}.F64 <Dd>, <Dm> ; A2
66675 vmov(condition, F64, DRegister(rd), DRegister(rm));
66687 // VABS{<c>}{<q>}.F64 <Dd>, <Dm> ; A2
66688 vabs(condition, F64, DRegister(rd), DRegister(rm));
66700 // VNEG{<c>}{<q>}.F64 <Dd>, <Dm> ; A2
66701 vneg(condition, F64, DRegister(rd), DRegister(rm));
66713 // VSQRT{<c>}{<q>}.F64 <Dd>, <Dm> ; A1
66714 vsqrt(condition, F64, DRegister(rd), DRegister(rm));
66732 // VCVTB{<c>}{<q>}.F64.F16 <Dd>, <Sm> ; A1
66734 F64,
66749 // VCVTT{<c>}{<q>}.F64.F16 <Dd>, <Sm> ; A1
66751 F64,
66766 // VCVTB{<c>}{<q>}.F16.F64 <Sd>, <Dm> ; A1
66769 F64,
66783 // VCVTT{<c>}{<q>}.F16.F64 <Sd>, <Dm> ; A1
66786 F64,
66806 // VCMP{<c>}{<q>}.F64 <Dd>, <Dm> ; A1
66807 vcmp(condition, F64, DRegister(rd), DRegister(rm));
66819 // VCMPE{<c>}{<q>}.F64 <Dd>, <Dm> ; A1
66820 vcmpe(condition, F64, DRegister(rd), DRegister(rm));
66831 // VCMP{<c>}{<q>}.F64 <Dd>, #0.0 ; A2
66832 vcmp(condition, F64, DRegister(rd), 0.0);
66846 // VCMPE{<c>}{<q>}.F64 <Dd>, #0.0 ; A2
66847 vcmpe(condition, F64, DRegister(rd), 0.0);
66868 // VRINTR{<c>}{<q>}.F64 <Dd>, <Dm> ; A1
66870 F64,
66884 // VRINTZ{<c>}{<q>}.F64 <Dd>, <Dm> ; A1
66886 F64,
66900 // VRINTX{<c>}{<q>}.F64 <Dd>, <Dm> ; A1
66902 F64,
66916 // VCVT{<c>}{<q>}.F32.F64 <Sd>, <Dm> ; A1
66919 F64,
66942 // VCVT{<c>}{<q>}.F64.<dt> <Dd>, <Sm> ; A1
66944 F64,
66973 // VCVT{<c>}{<q>}.F64.<dt> <Ddm>, <Ddm>, #<fbits> ; A1
66975 F64,
66994 // VCVTR{<c>}{<q>}.U32.F64 <Sd>, <Dm> ; A1
66997 F64,
67011 // VCVT{<c>}{<q>}.U32.F64 <Sd>, <Dm> ; A1
67014 F64,
67028 // VCVTR{<c>}{<q>}.S32.F64 <Sd>, <Dm> ; A1
67031 F64,
67045 // VCVT{<c>}{<q>}.S32.F64 <Sd>, <Dm> ; A1
67048 F64,
67076 // VCVT{<c>}{<q>}.<dt>.F64 <Ddm>, <Ddm>, #<fbits> ; A1
67079 F64,