Lines Matching refs:SZ

87 $SZ=4;
110 $_inp="16*$SZ+0*8(%rsp)";
111 $_out="16*$SZ+1*8(%rsp)";
112 $_end="16*$SZ+2*8(%rsp)";
113 $_key="16*$SZ+3*8(%rsp)";
114 $_ivp="16*$SZ+4*8(%rsp)";
115 $_ctx="16*$SZ+5*8(%rsp)";
116 $_in0="16*$SZ+6*8(%rsp)";
117 $_rsp="`16*$SZ+7*8`(%rsp)";
118 $framesz=16*$SZ+8*8;
316 '&add ($h,$SZ*($i&15)."(%rsp)")', # h+=X[i]+K[i]
402 lea $TABLE+`$SZ*2*$rounds+32`(%rip),%r13 # borrow $a0
409 mov $SZ*0(%r15),$A
410 mov $SZ*1(%r15),$B
411 mov $SZ*2(%r15),$C
412 mov $SZ*3(%r15),$D
413 mov $SZ*4(%r15),$E
414 mov $SZ*5(%r15),$F
415 mov $SZ*6(%r15),$G
416 mov $SZ*7(%r15),$H
424 if ($SZ==4) { # SHA256
431 vmovdqa $TABLE+`$SZ*2*$rounds`(%rip),$t3
457 sub \$-16*2*$SZ,$Tbl # size optimization
467 &vpalignr ($t0,@X[1],@X[0],$SZ); # X[1..4]
470 &vpalignr ($t3,@X[3],@X[2],$SZ); # X[9..12]
473 &vprotd ($t1,$t0,8*$SZ-$sigma0[1]);
492 &vprotd ($t3,@X[3],8*$SZ-$sigma1[1]);
527 &vprotd ($t3,@X[0],8*$SZ-$sigma1[1]);
573 &cmpb ($SZ-1+16*2*$SZ."($Tbl)",0);
596 add $SZ*0(%r15),$A
597 add $SZ*1(%r15),$B
598 add $SZ*2(%r15),$C
599 add $SZ*3(%r15),$D
600 add $SZ*4(%r15),$E
601 add $SZ*5(%r15),$F
602 add $SZ*6(%r15),$G
603 add $SZ*7(%r15),$H
607 mov $A,$SZ*0(%r15)
608 mov $B,$SZ*1(%r15)
609 mov $C,$SZ*2(%r15)
610 mov $D,$SZ*3(%r15)
611 mov $E,$SZ*4(%r15)
612 mov $F,$SZ*5(%r15)
613 mov $G,$SZ*6(%r15)
614 mov $H,$SZ*7(%r15)
718 lea $TABLE+`$SZ*2*$rounds+32`(%rip),%r13 # borrow $a0
725 mov $SZ*0(%r15),$A
726 mov $SZ*1(%r15),$B
727 mov $SZ*2(%r15),$C
728 mov $SZ*3(%r15),$D
729 mov $SZ*4(%r15),$E
730 mov $SZ*5(%r15),$F
731 mov $SZ*6(%r15),$G
732 mov $SZ*7(%r15),$H
739 if ($SZ==4) { # SHA256
747 vmovdqa $TABLE+`$SZ*2*$rounds`(%rip),$t3
773 sub \$-16*2*$SZ,$Tbl # size optimization
779 '&vpalignr ($t0,@X[1],@X[0],$SZ)', # X[1..4]
780 '&vpalignr ($t3,@X[3],@X[2],$SZ)', # X[9..12]
784 '&vpslld ($t1,$t0,8*$SZ-$sigma0[1]);',
842 &cmpb ($SZ-1+16*2*$SZ."($Tbl)",0);
866 add $SZ*0(%r15),$A
867 add $SZ*1(%r15),$B
868 add $SZ*2(%r15),$C
869 add $SZ*3(%r15),$D
870 add $SZ*4(%r15),$E
871 add $SZ*5(%r15),$F
872 add $SZ*6(%r15),$G
873 add $SZ*7(%r15),$H
877 mov $A,$SZ*0(%r15)
878 mov $B,$SZ*1(%r15)
879 mov $C,$SZ*2(%r15)
880 mov $D,$SZ*3(%r15)
881 mov $E,$SZ*4(%r15)
882 mov $F,$SZ*5(%r15)
883 mov $G,$SZ*6(%r15)
884 mov $H,$SZ*7(%r15)
930 my $a5=$SZ==4?"%esi":"%rsi"; # zap $inp
931 my $PUSH8=8*2*$SZ;
939 '&add ($h,(32*($i/(16/$SZ))+$SZ*($i%(16/$SZ)))%$PUSH8.$base)', # h+=X[i]+K[i]
996 sub \$`2*$SZ*$rounds+8*8+$win64*16*10`,%rsp
997 and \$-256*$SZ,%rsp # align stack frame
998 add \$`2*$SZ*($rounds-8)`,%rsp
1034 lea $TABLE+`$SZ*2*$rounds+32`(%rip),%r12 # borrow $a4
1045 sub \$-16*$SZ,%r13 # inp++, size optimization
1046 mov $SZ*0(%r15),$A
1048 mov $SZ*1(%r15),$B
1050 mov $SZ*2(%r15),$C
1052 mov $SZ*3(%r15),$D
1053 mov $SZ*4(%r15),$E
1054 mov $SZ*5(%r15),$F
1055 mov $SZ*6(%r15),$G
1056 mov $SZ*7(%r15),$H
1059 if ($SZ==4) { # SHA256
1067 vmovdqa $TABLE+`$SZ*2*$rounds`(%rip),$t3
1068 vmovdqu -16*$SZ+0(%rsi,%r13),%xmm0
1069 vmovdqu -16*$SZ+16(%rsi,%r13),%xmm1
1070 vmovdqu -16*$SZ+32(%rsi,%r13),%xmm2
1071 vmovdqu -16*$SZ+48(%rsi,%r13),%xmm3
1082 lea -16*$SZ(%r13),%r13
1113 sub \$-16*2*$SZ,$Tbl # size optimization
1162 &lea ($Tbl,16*2*$SZ."($Tbl)");
1163 &cmpb (($SZ-1)."($Tbl)",0);
1178 mov `2*$SZ*$rounds+5*8`(%rsp),%r15 # $_ctx, borrow $a2
1180 lea `2*$SZ*($rounds-8)`(%rsp),$Tbl
1187 add $SZ*0(%r15),$A
1188 add $SZ*1(%r15),$B
1189 add $SZ*2(%r15),$C
1190 add $SZ*3(%r15),$D
1191 add $SZ*4(%r15),$E
1192 add $SZ*5(%r15),$F
1193 add $SZ*6(%r15),$G
1194 add $SZ*7(%r15),$H
1196 mov $A,$SZ*0(%r15)
1197 mov $B,$SZ*1(%r15)
1198 mov $C,$SZ*2(%r15)
1199 mov $D,$SZ*3(%r15)
1200 mov $E,$SZ*4(%r15)
1201 mov $F,$SZ*5(%r15)
1202 mov $G,$SZ*6(%r15)
1203 mov $H,$SZ*7(%r15)
1235 mov `2*$SZ*$rounds+5*8`(%rsp),%r15 # $_ctx, borrow $a2
1236 lea 16*$SZ(%r13),%r13
1237 mov `2*$SZ*$rounds+6*8`(%rsp),%rsi # $_in0, borrow $a3
1239 lea `2*$SZ*($rounds-8)`(%rsp),%rsp
1241 add $SZ*0(%r15),$A
1242 add $SZ*1(%r15),$B
1243 add $SZ*2(%r15),$C
1244 add $SZ*3(%r15),$D
1245 add $SZ*4(%r15),$E
1246 add $SZ*5(%r15),$F
1247 add $SZ*6(%r15),$G
1249 add $SZ*7(%r15),$H
1253 mov $A,$SZ*0(%r15)
1255 mov $B,$SZ*1(%r15)
1256 mov $C,$SZ*2(%r15)
1257 mov $D,$SZ*3(%r15)
1258 mov $E,$SZ*4(%r15)
1259 mov $F,$SZ*5(%r15)
1260 mov $G,$SZ*6(%r15)
1261 mov $H,$SZ*7(%r15)
1267 .cfi_cfa_expression $Tbl+`16*$SZ+7*8`,deref,+8
1270 mov 16*$SZ+4*8($Tbl),$ivp
1271 mov 16*$SZ+7*8($Tbl),%rsi
1657 and \$-256*$SZ,%rax
1658 add \$`2*$SZ*($rounds-8)`,%rax
1663 mov 16*$SZ+7*8(%rax),%rax # pull $_rsp
1678 lea 16*$SZ+8*8(%rsi),%rsi # Xmm6- save area