Lines Matching defs:zSig0

542 and extended significand formed by the concatenation of `zSig0' and `zSig1',
566 struct roundingData *roundData, flag zSign, int32 zExp, bits64 zSig0, bits64 zSig1
588 zSig0 |= ( zSig1 != 0 );
603 roundBits = zSig0 & roundMask;
606 || ( ( zExp == 0x7FFE ) && ( zSig0 + roundIncrement < zSig0 ) )
614 || ( zSig0 <= zSig0 + roundIncrement );
615 shift64RightJamming( zSig0, 1 - zExp, &zSig0 );
617 roundBits = zSig0 & roundMask;
620 zSig0 += roundIncrement;
621 if ( (sbits64) zSig0 < 0 ) zExp = 1;
626 zSig0 &= ~ roundMask;
627 return packFloatx80( zSign, zExp, zSig0 );
631 zSig0 += roundIncrement;
632 if ( zSig0 < roundIncrement ) {
634 zSig0 = LIT64( 0x8000000000000000 );
640 zSig0 &= ~ roundMask;
641 if ( zSig0 == 0 ) zExp = 0;
642 return packFloatx80( zSign, zExp, zSig0 );
661 && ( zSig0 == LIT64( 0xFFFFFFFFFFFFFFFF ) )
681 || ( zSig0 < LIT64( 0xFFFFFFFFFFFFFFFF ) );
682 shift64ExtraRightJamming( zSig0, zSig1, 1 - zExp, &zSig0, &zSig1 );
698 ++zSig0;
699 zSig0 &= ~ ( ( zSig1 + zSig1 == 0 ) & roundNearestEven );
700 if ( (sbits64) zSig0 < 0 ) zExp = 1;
702 return packFloatx80( zSign, zExp, zSig0 );
707 ++zSig0;
708 if ( zSig0 == 0 ) {
710 zSig0 = LIT64( 0x8000000000000000 );
713 zSig0 &= ~ ( ( zSig1 + zSig1 == 0 ) & roundNearestEven );
717 if ( zSig0 == 0 ) zExp = 0;
720 return packFloatx80( zSign, zExp, zSig0 );
726 `zExp', and significand formed by the concatenation of `zSig0' and `zSig1',
735 struct roundingData *roundData, flag zSign, int32 zExp, bits64 zSig0, bits64 zSig1
740 if ( zSig0 == 0 ) {
741 zSig0 = zSig1;
745 shiftCount = countLeadingZeros64( zSig0 );
746 shortShift128Left( zSig0, zSig1, shiftCount, &zSig0, &zSig1 );
749 roundAndPackFloatx80( roundData, zSign, zExp, zSig0, zSig1 );
2119 bits64 aSig, bSig, zSig0, zSig1;
2157 mul64To128( aSig, bSig, &zSig0, &zSig1 );
2158 zSig0 |= ( zSig1 != 0 );
2159 if ( 0 <= (sbits64) ( zSig0<<1 ) ) {
2160 zSig0 <<= 1;
2163 return roundAndPackFloat64( roundData, zSign, zExp, zSig0 );
2748 bits64 aSig, bSig, zSig0, zSig1;
2782 zSig0 = aSig + bSig;
2784 normalizeFloatx80Subnormal( zSig0, &zExp, &zSig0 );
2791 zSig0 = aSig + bSig;
2793 if ( (sbits64) zSig0 < 0 ) goto roundAndPack;
2795 shift64ExtraRightJamming( zSig0, zSig1, 1, &zSig0, &zSig1 );
2796 zSig0 |= LIT64( 0x8000000000000000 );
2801 roundData, zSign, zExp, zSig0, zSig1 );
2817 bits64 aSig, bSig, zSig0, zSig1;
2854 sub128( bSig, 0, aSig, zSig1, &zSig0, &zSig1 );
2866 sub128( aSig, 0, bSig, zSig1, &zSig0, &zSig1 );
2871 roundData, zSign, zExp, zSig0, zSig1 );
2930 bits64 aSig, bSig, zSig0, zSig1;
2969 mul64To128( aSig, bSig, &zSig0, &zSig1 );
2970 if ( 0 < (sbits64) zSig0 ) {
2971 shortShift128Left( zSig0, zSig1, 1, &zSig0, &zSig1 );
2976 roundData, zSign, zExp, zSig0, zSig1 );
2991 bits64 aSig, bSig, zSig0, zSig1;
3039 zSig0 = estimateDiv128To64( aSig, rem1, bSig );
3040 mul64To128( bSig, zSig0, &term0, &term1 );
3043 --zSig0;
3058 roundData, zSign, zExp, zSig0, zSig1 );
3173 bits64 aSig0, aSig1, zSig0, zSig1;
3200 zSig0 = estimateSqrt32( aExp, aSig0>>32 );
3201 zSig0 <<= 31;
3204 zSig0 = estimateDiv128To64( aSig0, aSig1, zSig0 ) + zSig0 + 4;
3205 if ( 0 <= (sbits64) zSig0 ) zSig0 = LIT64( 0xFFFFFFFFFFFFFFFF );
3207 mul64To128( zSig0, zSig0, &term0, &term1 );
3210 --zSig0;
3211 shortShift128Left( 0, zSig0, 1, &term0, &term1 );
3216 zSig1 = estimateDiv128To64( shiftedRem0, shiftedRem1, zSig0 );
3219 mul64To128( zSig0, zSig1, &term1, &term2 );
3226 shortShift192Left( 0, zSig0, zSig1, 1, &term1, &term2, &term3 );
3235 roundData, 0, zExp, zSig0, zSig1 );