Lines Matching refs:z30
988 __ Index(z30.VnB(), 1, 1);
991 __ Splice(z0.VnB(), p0, z0.VnB(), z30.VnB());
993 __ Splice(z1.VnB(), p1, z1.VnB(), z30.VnB());
995 __ Splice(z2.VnB(), p2, z2.VnB(), z30.VnB());
997 __ Splice(z3.VnB(), p3, z3.VnB(), z30.VnB());
999 __ Splice(z4.VnB(), p4, z4.VnB(), z30.VnB());
1001 __ Splice(z5.VnB(), p5, z5.VnB(), z30.VnB());
1003 __ Splice(z6.VnB(), p6, z6.VnB(), z30.VnB());
1010 __ Index(z30.VnH(), 1, 1);
1012 __ Splice(z7.VnH(), p2, z29.VnH(), z30.VnH());
1013 __ Splice(z8.VnH(), p3, z29.VnH(), z30.VnH());
1020 __ Index(z30.VnS(), 1, 1);
1022 __ Splice(z9.VnS(), p2, z29.VnS(), z30.VnS());
1023 __ Splice(z10.VnS(), p3, z29.VnS(), z30.VnS());
1030 __ Index(z30.VnD(), 1, 1);
1032 __ Splice(z11.VnD(), p2, z29.VnD(), z30.VnD());
1033 __ Splice(z30.VnD(), p3, z29.VnD(), z30.VnD());
1065 ASSERT_EQUAL_SVE(z30_expected, z30.VnD());
4371 (masm.*fn)(z30.WithLaneSize(lane_size_in_bits), SVE_ALL, multiplier);
4417 ASSERT_EQUAL_SVE(z14, z30);
4485 ZRegister src_a = z30.WithLaneSize(lane_size_in_bits);
5891 __ Mov(z30, z31);
5920 ASSERT_EQUAL_SVE(z30, z31);
5999 __ Mov(z30, z31);
6024 ASSERT_EQUAL_SVE(z30, z31);
6087 __ Mov(z30, z31);
6106 ASSERT_EQUAL_SVE(z30, z31);
6169 __ Mov(z30, z31);
6192 ASSERT_EQUAL_SVE(z30, z31);
6255 __ Mov(z30, z31);
6340 __ Mov(z30, z31);
6366 ASSERT_EQUAL_SVE(z30, z31);
7631 __ Index(z30.VnS(), 3, -7);
7635 __ St3w(z30.VnS(),
7644 __ Mov(z10.VnS(), p2.Merging(), z30.VnS());
7674 __ Ld3h(z30.VnH(),
7679 __ Mov(z19, z30);
7731 // st3w { z30.s, z31.s, z0.s }, SVE_POW2
7839 __ Index(z30.VnS(), -7, 3);
7851 __ St3w(z30.VnS(), z31.VnS(), z0.VnS(), p5, SVEMemOperand(x0, x3, LSL, 2));
7856 __ Mov(z10.VnS(), p5.Merging(), z30.VnS());
7884 __ Ld3h(z30.VnH(),
7889 __ Mov(z19, z30);
7944 // st3w { z30.s, z31.s, z0.s }, ((i % 5) == 0)
8065 __ Index(z30.VnS(), 3, -7);
8070 z30.VnS(),
8081 __ Mov(z12.VnS(), p2.Merging(), z30.VnS());
8134 z30.VnS(),
8187 // st4w { z29.s, z30.s, z31.s, z0.s }, SVE_POW2
8236 ASSERT_EQUAL_SVE(z14, z30);
8321 __ Index(z30.VnS(), -7, 7);
8334 z30.VnS(),
8345 __ Mov(z12.VnS(), p5.Merging(), z30.VnS());
8392 z30.VnS(),
8448 // st4w { z29.s, z30.s, z31.s, z0.s }, ((i % 5) == 0)
8497 ASSERT_EQUAL_SVE(z14, z30);
8774 // Clobber register z30, x28, x29 and p7.
8785 ZRegister lane_numbers = z30.WithLaneSize(esize_in_bits);
9473 __ Neg(z30.VnS(), z31.VnS());
9479 __ Ldff1h(z2.VnS(), all.Zeroing(), SVEMemOperand(x0, z30.VnS(), SXTW));
9481 __ Ldff1sb(z4.VnS(), all.Zeroing(), SVEMemOperand(x0, z30.VnS(), SXTW));
9487 __ Ldff1sh(z8.VnS(), all.Zeroing(), SVEMemOperand(x0, z30.VnS(), SXTW, 1));
9490 __ Neg(z30.VnD(), z31.VnD());
9501 __ Ldff1h(z10.VnD(), all.Zeroing(), SVEMemOperand(x0, z30.VnD(), SXTW));
9504 __ Ldff1sh(z13.VnD(), all.Zeroing(), SVEMemOperand(x0, z30.VnD(), SXTW));
9508 __ Ldff1h(z15.VnD(), all.Zeroing(), SVEMemOperand(x0, z30.VnD(), SXTW, 1));
9510 __ Ldff1d(z17.VnD(), all.Zeroing(), SVEMemOperand(x0, z30.VnD(), SXTW, 3));
9511 __ Ldff1sh(z18.VnD(), all.Zeroing(), SVEMemOperand(x0, z30.VnD(), SXTW, 1));
9527 __ Add(z30.VnD(), z31.VnD(), z29.VnD());
9528 __ Ldff1h(z25.VnD(), all.Zeroing(), SVEMemOperand(x0, z30.VnD(), LSL, 1));
9529 __ Ldff1sh(z26.VnD(), all.Zeroing(), SVEMemOperand(x0, z30.VnD(), LSL, 1));
9532 __ Add(z30.VnD(), z31.VnD(), z29.VnD());
9533 __ Ldff1w(z27.VnD(), all.Zeroing(), SVEMemOperand(x0, z30.VnD(), LSL, 2));
9534 __ Ldff1sw(z28.VnD(), all.Zeroing(), SVEMemOperand(x0, z30.VnD(), LSL, 2));
9537 __ Add(z30.VnD(), z31.VnD(), z29.VnD());
9538 __ Ldff1d(z29.VnD(), all.Zeroing(), SVEMemOperand(x0, z30.VnD(), LSL, 3));
9669 __ Neg(z30.VnS(), z31.VnS());
9673 __ Ld1h(z2.VnS(), all.Zeroing(), SVEMemOperand(x0, z30.VnS(), SXTW));
9675 __ Ld1sb(z4.VnS(), all.Zeroing(), SVEMemOperand(x0, z30.VnS(), SXTW));
9681 __ Ld1sh(z8.VnS(), all.Zeroing(), SVEMemOperand(x0, z30.VnS(), SXTW, 1));
9684 __ Neg(z30.VnD(), z31.VnD());
9695 __ Ld1h(z10.VnD(), all.Zeroing(), SVEMemOperand(x0, z30.VnD(), SXTW));
9698 __ Ld1sh(z13.VnD(), all.Zeroing(), SVEMemOperand(x0, z30.VnD(), SXTW));
9702 __ Ld1h(z15.VnD(), all.Zeroing(), SVEMemOperand(x0, z30.VnD(), SXTW, 1));
9704 __ Ld1d(z17.VnD(), all.Zeroing(), SVEMemOperand(x0, z30.VnD(), SXTW, 3));
9705 __ Ld1sh(z18.VnD(), all.Zeroing(), SVEMemOperand(x0, z30.VnD(), SXTW, 1));
9721 __ Add(z30.VnD(), z31.VnD(), z29.VnD());
9722 __ Ld1h(z25.VnD(), all.Zeroing(), SVEMemOperand(x0, z30.VnD(), LSL, 1));
9723 __ Ld1sh(z26.VnD(), all.Zeroing(), SVEMemOperand(x0, z30.VnD(), LSL, 1));
9726 __ Add(z30.VnD(), z31.VnD(), z29.VnD());
9727 __ Ld1w(z27.VnD(), all.Zeroing(), SVEMemOperand(x0, z30.VnD(), LSL, 2));
9728 __ Ld1sw(z28.VnD(), all.Zeroing(), SVEMemOperand(x0, z30.VnD(), LSL, 2));
9731 __ Add(z30.VnD(), z31.VnD(), z29.VnD());
9732 __ Ld1d(z29.VnD(), all.Zeroing(), SVEMemOperand(x0, z30.VnD(), LSL, 3));
11224 __ Index(z30.VnS(), 0x11223344, 1);
11225 __ Sub(z8.VnS(), 0x88776655, z30.VnS());
12111 ZRegister zn = z30.WithLaneSize(lane_size_in_bits);
12477 InsrHelper(&masm, z30.VnD(), in0);
12480 __ Sel(z0.VnB(), pg, z30.VnB(), z31.VnB());
12481 __ Sel(z1.VnH(), pg, z30.VnH(), z31.VnH());
12482 __ Sel(z2.VnS(), pg, z30.VnS(), z31.VnS());
12483 __ Sel(z3.VnD(), pg, z30.VnD(), z31.VnD());
14505 __ Dup(z30.VnS(), 0);
14517 __ Sel(z2.VnH(), p3, z1.VnH(), z30.VnH()); // 5i + 0
14518 __ Sel(z3.VnH(), p2, z1.VnH(), z30.VnH()); // 0i + 5
14522 __ Sel(z8.VnH(), p2, z8.VnH(), z30.VnH()); // 0i + A
14560 __ Sel(z2.VnS(), p3, z1.VnS(), z30.VnS());
14561 __ Sel(z29.VnS(), p2, z1.VnS(), z30.VnS());
14565 __ Sel(z12.VnS(), p2, z12.VnS(), z30.VnS());
14581 __ Sel(z2.VnD(), p3, z1.VnD(), z30.VnD());
14582 __ Sel(z28.VnD(), p2, z1.VnD(), z30.VnD());
14586 __ Sel(z16.VnD(), p2, z16.VnD(), z30.VnD());
16953 InsrHelper(&masm, z30.VnD(), zm_inputs);
16956 FPSegmentPatternHelper(&masm, z0.VnH(), p0.Merging(), z30.VnH());
16969 FPSegmentPatternHelper(&masm, z0.VnS(), p0.Merging(), z30.VnS());
16979 FPSegmentPatternHelper(&masm, z0.VnD(), p0.Merging(), z30.VnD());
16996 __ Dup(z0.VnH(), z30.VnH(), 0);
16999 __ Dup(z0.VnH(), z30.VnH(), 1);
17002 __ Dup(z0.VnH(), z30.VnH(), 4);
17005 __ Dup(z0.VnH(), z30.VnH(), 7);
17009 __ Dup(z0.VnS(), z30.VnS(), 0);
17012 __ Dup(z0.VnS(), z30.VnS(), 1);
17015 __ Dup(z0.VnS(), z30.VnS(), 2);
17018 __ Dup(z0.VnS(), z30.VnS(), 3);
17022 __ Dup(z0.VnD(), z30.VnD(), 0);
17025 __ Dup(z0.VnD(), z30.VnD(), 1);
17028 FPSegmentPatternHelper(&masm, z0.VnD(), p0.Merging(), z30.VnD());
17029 __ Dup(z29.VnD(), z30.VnD(), 1);
18069 InsrHelper(&masm, z30.WithLaneSize(ls), zd_expected);
18072 __ Mov(z22.WithLaneSize(ls), p1.Merging(), z30.WithLaneSize(ls));
18631 __ Prfb(PLDL1KEEP, p5, SVEMemOperand(z30.VnS(), 0));
18812 InsrHelper(&masm, z30.VnS(), zm_inputs_s);
18814 __ Sqdmullb(z1.VnD(), z31.VnS(), z30.VnS());
18815 __ Sqdmullt(z2.VnD(), z31.VnS(), z30.VnS());
18817 __ Pmullb(z3.VnD(), z31.VnS(), z30.VnS());
18818 __ Pmullt(z4.VnD(), z31.VnS(), z30.VnS());
18820 __ Mov(z7, z30);
18883 __ Mov(z30, z3);
18884 __ Sqdmlalt(z30.VnD(), z30.VnD(), z0.VnS(), z1.VnS());
18887 __ Mov(z28, z30);
18911 ASSERT_EQUAL_SVE(sqdmlalt_vec_expected_d, z30.VnD());
18916 ASSERT_EQUAL_SVE(z30, z26);
18939 __ Index(z30.VnD(), x0, 1);
18947 __ Ldnt1b(z0.VnD(), p1.Zeroing(), SVEMemOperand(z30.VnD(), x1));
18948 __ Ld1b(z1.VnD(), p1.Zeroing(), SVEMemOperand(x1, z30.VnD()));
18951 __ Ldnt1h(z2.VnD(), p2.Zeroing(), SVEMemOperand(z30.VnD(), x1));
18952 __ Ld1h(z3.VnD(), p2.Zeroing(), SVEMemOperand(x1, z30.VnD()));
18955 __ Ldnt1w(z4.VnD(), p3.Zeroing(), SVEMemOperand(z30.VnD(), x1));
18956 __ Ld1w(z5.VnD(), p3.Zeroing(), SVEMemOperand(x1, z30.VnD()));
18959 __ Ldnt1d(z6.VnD(), p4.Zeroing(), SVEMemOperand(z30.VnD(), x1));
18960 __ Ld1d(z7.VnD(), p4.Zeroing(), SVEMemOperand(x1, z30.VnD()));
18963 __ Ldnt1sb(z8.VnD(), p0.Zeroing(), SVEMemOperand(z30.VnD(), x1));
18964 __ Ld1sb(z9.VnD(), p0.Zeroing(), SVEMemOperand(x1, z30.VnD()));
18967 __ Ldnt1sh(z10.VnD(), p2.Zeroing(), SVEMemOperand(z30.VnD(), x1));
18968 __ Ld1sh(z11.VnD(), p2.Zeroing(), SVEMemOperand(x1, z30.VnD()));
18971 __ Ldnt1sw(z12.VnD(), p3.Zeroing(), SVEMemOperand(z30.VnD(), x1));
18972 __ Ld1sw(z13.VnD(), p3.Zeroing(), SVEMemOperand(x1, z30.VnD()));
19007 // Put store addresses into z30, and a small offset in x4.
19008 __ Index(z30.VnD(), x0, 1);
19014 __ Stnt1b(z1.VnD(), p0, SVEMemOperand(z30.VnD(), x4));
19028 __ Index(z30.VnD(), x0, 2);
19030 __ Stnt1h(z1.VnD(), p0, SVEMemOperand(z30.VnD(), x4));
19037 __ Index(z30.VnD(), x0, 4);
19039 __ Stnt1w(z1.VnD(), p0, SVEMemOperand(z30.VnD(), x4));
19046 __ Index(z30.VnD(), x0, 8);
19048 __ Stnt1d(z1.VnD(), p0, SVEMemOperand(z30.VnD(), x4));
19418 InsrHelper(&masm, z30.VnS(), zm_inputs_s);
19422 __ Cmla(z0.VnS(), z0.VnS(), z31.VnS(), z30.VnS(), 0);
19426 __ Cmla(z1.VnS(), z1.VnS(), z31.VnS(), z30.VnS(), 90);
19430 __ Cmla(z2.VnS(), z2.VnS(), z31.VnS(), z30.VnS(), 180);
19434 __ Cmla(z3.VnS(), z3.VnS(), z31.VnS(), z30.VnS(), 270);
19436 __ Cmla(z4.VnS(), z29.VnS(), z31.VnS(), z30.VnS(), 0);
19437 __ Cmla(z5.VnS(), z28.VnS(), z31.VnS(), z30.VnS(), 90);
19438 __ Cmla(z6.VnS(), z27.VnS(), z31.VnS(), z30.VnS(), 180);
19439 __ Cmla(z7.VnS(), z26.VnS(), z31.VnS(), z30.VnS(), 270);
19484 InsrHelper(&masm, z30.VnS(), zm_top_inputs);
19488 __ Zip1(z30.VnS(), z29.VnS(), z30.VnS());
19494 __ Sqdmlalbt(z1.VnD(), z1.VnD(), z31.VnS(), z30.VnS());
19495 __ Sqdmlslbt(z2.VnD(), z2.VnD(), z31.VnS(), z30.VnS());
19555 InsrHelper(&masm, z30.VnH(), zm_inputs);
19559 __ Fmlalb(z0.VnS(), z0.VnS(), z31.VnH(), z30.VnH());
19562 __ Fmlalt(z1.VnS(), z1.VnS(), z31.VnH(), z30.VnH());
19565 __ Fmlslb(z2.VnS(), z2.VnS(), z31.VnH(), z30.VnH());
19568 __ Fmlslt(z3.VnS(), z3.VnS(), z31.VnH(), z30.VnH());
19570 __ Fmlalb(z4.VnS(), z29.VnS(), z31.VnH(), z30.VnH());
19571 __ Fmlalt(z5.VnS(), z29.VnS(), z31.VnH(), z30.VnH());
19572 __ Fmlslb(z6.VnS(), z29.VnS(), z31.VnH(), z30.VnH());
19573 __ Fmlslt(z7.VnS(), z29.VnS(), z31.VnH(), z30.VnH());