Lines Matching refs:z24

1475   __ Dup(z24.VnS(), -0x01020304);
1501 ASSERT_EQUAL_SVE(0xfefdfcfc, z24.VnS());
4365 (masm.*fn)(z24.WithLaneSize(lane_size_in_bits), SVE_VL64, multiplier);
4411 ASSERT_EQUAL_SVE(z8, z24);
7129 __ Dup(z24.VnH(), 0);
7130 __ Sxtb(z24.VnH(), p2.Merging(), z2.VnH());
7223 ASSERT_EQUAL_SVE(z24, z14);
7317 __ Ld2w(z24.VnS(),
7394 ASSERT_EQUAL_SVE(z8, z24);
7475 // Ld2w(z24.VnS(), z25.VnS(), ...)
7493 __ Ld2w(z24.VnS(), z25.VnS(), p5.Zeroing(), SVEMemOperand(x0, x3, LSL, 2));
7566 ASSERT_EQUAL_SVE(z8, z24);
7684 z24.VnS(),
7773 ASSERT_EQUAL_SVE(z12, z24);
7894 z24.VnS(),
7986 ASSERT_EQUAL_SVE(z12, z24);
8126 z24.VnH(),
8228 ASSERT_EQUAL_SVE(z8, z24);
8298 __ Index(z24.VnH(), 7, -2);
8304 z24.VnH(),
8315 __ Mov(z8.VnH(), p6.Merging(), z24.VnH());
8384 z24.VnH(),
8433 // st4h { z22.h, z23.h, z24.h, z25.h }, SVE_VL16
8489 ASSERT_EQUAL_SVE(z8, z24);
9407 __ Ld1b(z24.VnB(), p1.Zeroing(), SVEMemOperand(x0, -1, SVE_MUL_VL));
9433 ASSERT_EQUAL_SVE(z24, z4);
9523 __ Ldff1sw(z24.VnD(), all.Zeroing(), SVEMemOperand(x0, z29.VnD()));
9620 ASSERT_EQUAL_SVE(expected_z24, z24.VnD());
9717 __ Ld1sw(z24.VnD(), all.Zeroing(), SVEMemOperand(x0, z29.VnD()));
9800 ASSERT_EQUAL_SVE(expected_z24, z24.VnD());
12817 ZRegister zd_max_shift_amount = z24.WithLaneSize(lane_size_in_bits);
15200 __ Mov(z24, z23);
15201 __ Fsub(z24.VnD(), p0m, 1.0, z24.VnD());
15202 __ Mov(z25, z24);
15263 ASSERT_EQUAL_SVE(expected_z24, z24.VnD());
15400 ZRegister zd_zeroing = z24;
15947 ZRegister zd_ucvtf_merged = z24;
17027 (masm.*macro)(z24.VnD(), p0.Merging(), z2.VnD(), z1.VnD(), z0.VnD(), option);
17049 ASSERT_EQUAL_SVE(z24.VnD(), z12.VnD());
18893 __ Sqdmlslt(z24.VnD(), z26.VnD(), z0.VnS(), z1.VnS());
18918 ASSERT_EQUAL_SVE(z28, z24);