Lines Matching refs:inp

98 ($out,$inp,$len,$key,$counter)=("%rdi","%rsi","%rdx","%rcx","%r8");
318 mov $inp,64+8(%rsp) # save inp
338 mov 64+8(%rsp),$inp # load inp
359 xor 4*0($inp),@x[0] # xor with input
360 xor 4*1($inp),@x[1]
361 xor 4*2($inp),@x[2]
362 xor 4*3($inp),@x[3]
363 xor 4*4($inp),@x[4]
364 xor 4*5($inp),@x[5]
365 xor 4*6($inp),@x[6]
366 xor 4*7($inp),@x[7]
367 movdqu 4*8($inp),%xmm0
368 xor 4*12($inp),@x[12]
369 xor 4*13($inp),@x[13]
370 xor 4*14($inp),@x[14]
371 xor 4*15($inp),@x[15]
372 lea 4*16($inp),$inp # inp+=64
416 movzb ($inp,%rbx),%eax
556 movdqu 0x00($inp),$t
557 movdqu 0x10($inp),$t1
559 movdqu 0x20($inp),$t
561 movdqu 0x30($inp),$t1
562 lea 0x40($inp),$inp # inp+=64
586 movzb ($inp,$counter),%eax
732 movdqu 0x00($inp),$t
733 movdqu 0x10($inp),$t1
735 movdqu 0x20($inp),$t
737 movdqu 0x30($inp),$t1
739 movdqu 0x40($inp),$t
741 movdqu 0x50($inp),$t1
743 movdqu 0x60($inp),$t
745 movdqu 0x70($inp),$t1
1133 movdqu 0x00($inp),$xt0 # xor with input
1134 movdqu 0x10($inp),$xt1
1135 movdqu 0x20($inp),$xt2
1136 movdqu 0x30($inp),$xt3
1143 movdqu 0x40($inp),$xt0
1145 movdqu 0x50($inp),$xt1
1147 movdqu 0x60($inp),$xt2
1149 movdqu 0x70($inp),$xt3
1150 lea 0x80($inp),$inp # size optimization
1157 movdqu 0x00($inp),$xt0
1159 movdqu 0x10($inp),$xt1
1161 movdqu 0x20($inp),$xt2
1164 movdqu 0x30($inp),$xt3
1171 movdqu 0x40($inp),$xt0
1173 movdqu 0x50($inp),$xt1
1175 movdqu 0x60($inp),$xt2
1177 movdqu 0x70($inp),$xt3
1178 lea 0x80($inp),$inp # inp+=64*4
1212 movdqu 0x00($inp),$xt0 # xor with input
1213 movdqu 0x10($inp),$xt1
1214 movdqu 0x20($inp),$xt2
1215 movdqu 0x30($inp),$xt3
1227 lea 0x40($inp),$inp # inp+=64*1
1239 movdqu 0x00($inp),$xt0 # xor with input
1240 movdqu 0x10($inp),$xt1
1241 movdqu 0x20($inp),$xt2
1242 movdqu 0x30($inp),$xt3
1249 movdqu 0x40($inp),$xt0
1251 movdqu 0x50($inp),$xt1
1253 movdqu 0x60($inp),$xt2
1255 movdqu 0x70($inp),$xt3
1267 lea 0x80($inp),$inp # inp+=64*2
1279 movdqu 0x00($inp),$xt0 # xor with input
1280 movdqu 0x10($inp),$xt1
1281 movdqu 0x20($inp),$xt2
1282 movdqu 0x30($inp),$xt3
1289 movdqu 0x40($inp),$xt0
1291 movdqu 0x50($inp),$xt1
1293 movdqu 0x60($inp),$xt2
1295 movdqu 0x70($inp),$xt3
1296 lea 0x80($inp),$inp # size optimization
1303 movdqu 0x00($inp),$xt0
1305 movdqu 0x10($inp),$xt1
1307 movdqu 0x20($inp),$xt2
1310 movdqu 0x30($inp),$xt3
1322 lea 0x40($inp),$inp # inp+=64*3
1332 movzb ($inp,%r10),%eax
1634 vpxor 0x00($inp),$xa0,$xa0 # xor with input
1635 vpxor 0x10($inp),$xb0,$xb0
1636 vpxor 0x20($inp),$xc0,$xc0
1637 vpxor 0x30($inp),$xd0,$xd0
1638 vpxor 0x40($inp),$xa1,$xa1
1639 vpxor 0x50($inp),$xb1,$xb1
1640 vpxor 0x60($inp),$xc1,$xc1
1641 vpxor 0x70($inp),$xd1,$xd1
1642 lea 0x80($inp),$inp # size optimization
1643 vpxor 0x00($inp),$xa2,$xa2
1644 vpxor 0x10($inp),$xb2,$xb2
1645 vpxor 0x20($inp),$xc2,$xc2
1646 vpxor 0x30($inp),$xd2,$xd2
1647 vpxor 0x40($inp),$xa3,$xa3
1648 vpxor 0x50($inp),$xb3,$xb3
1649 vpxor 0x60($inp),$xc3,$xc3
1650 vpxor 0x70($inp),$xd3,$xd3
1651 lea 0x80($inp),$inp # inp+=64*4
1695 vpxor 0x00($inp),$xa0,$xa0 # xor with input
1696 vpxor 0x10($inp),$xb0,$xb0
1697 vpxor 0x20($inp),$xc0,$xc0
1698 vpxor 0x30($inp),$xd0,$xd0
1705 lea 0x40($inp),$inp # inp+=64*1
1717 vpxor 0x00($inp),$xa0,$xa0 # xor with input
1718 vpxor 0x10($inp),$xb0,$xb0
1719 vpxor 0x20($inp),$xc0,$xc0
1720 vpxor 0x30($inp),$xd0,$xd0
1721 vpxor 0x40($inp),$xa1,$xa1
1722 vpxor 0x50($inp),$xb1,$xb1
1723 vpxor 0x60($inp),$xc1,$xc1
1724 vpxor 0x70($inp),$xd1,$xd1
1736 lea 0x80($inp),$inp # inp+=64*2
1748 vpxor 0x00($inp),$xa0,$xa0 # xor with input
1749 vpxor 0x10($inp),$xb0,$xb0
1750 vpxor 0x20($inp),$xc0,$xc0
1751 vpxor 0x30($inp),$xd0,$xd0
1752 vpxor 0x40($inp),$xa1,$xa1
1753 vpxor 0x50($inp),$xb1,$xb1
1754 vpxor 0x60($inp),$xc1,$xc1
1755 vpxor 0x70($inp),$xd1,$xd1
1756 lea 0x80($inp),$inp # size optimization
1757 vpxor 0x00($inp),$xa2,$xa2
1758 vpxor 0x10($inp),$xb2,$xb2
1759 vpxor 0x20($inp),$xc2,$xc2
1760 vpxor 0x30($inp),$xd2,$xd2
1777 lea 0x40($inp),$inp # inp+=64*3
1787 movzb ($inp,%r10),%eax
2166 vpxor 0x00($inp),$xa0,$xa0 # xor with input
2167 vpxor 0x20($inp),$xb0,$xb0
2168 vpxor 0x40($inp),$xc0,$xc0
2169 vpxor 0x60($inp),$xd0,$xd0
2170 lea 0x80($inp),$inp # size optimization
2177 vpxor 0x00($inp),$xa1,$xa1
2178 vpxor 0x20($inp),$xb1,$xb1
2179 vpxor 0x40($inp),$xc1,$xc1
2180 vpxor 0x60($inp),$xd1,$xd1
2181 lea 0x80($inp),$inp # size optimization
2188 vpxor 0x00($inp),$xa2,$xa2
2189 vpxor 0x20($inp),$xb2,$xb2
2190 vpxor 0x40($inp),$xc2,$xc2
2191 vpxor 0x60($inp),$xd2,$xd2
2192 lea 0x80($inp),$inp # size optimization
2199 vpxor 0x00($inp),$xa3,$xa3
2200 vpxor 0x20($inp),$xb3,$xb3
2201 vpxor 0x40($inp),$xc3,$xc3
2202 vpxor 0x60($inp),$xd3,$xd3
2203 lea 0x80($inp),$inp # size optimization
2238 vpxor 0x00($inp),$xa0,$xa0 # xor with input
2239 vpxor 0x20($inp),$xb0,$xb0
2244 lea 0x40($inp),$inp # inp+=64*1
2254 vpxor 0x00($inp),$xa0,$xa0 # xor with input
2255 vpxor 0x20($inp),$xb0,$xb0
2256 vpxor 0x40($inp),$xc0,$xc0
2257 vpxor 0x60($inp),$xd0,$xd0
2264 lea 0x80($inp),$inp # inp+=64*2
2274 vpxor 0x00($inp),$xa0,$xa0 # xor with input
2275 vpxor 0x20($inp),$xb0,$xb0
2276 vpxor 0x40($inp),$xc0,$xc0
2277 vpxor 0x60($inp),$xd0,$xd0
2278 vpxor 0x80($inp),$xa1,$xa1
2279 vpxor 0xa0($inp),$xb1,$xb1
2288 lea 0xc0($inp),$inp # inp+=64*3
2298 vpxor 0x00($inp),$xa0,$xa0 # xor with input
2299 vpxor 0x20($inp),$xb0,$xb0
2300 vpxor 0x40($inp),$xc0,$xc0
2301 vpxor 0x60($inp),$xd0,$xd0
2302 vpxor 0x80($inp),$xa1,$xa1
2303 vpxor 0xa0($inp),$xb1,$xb1
2304 vpxor 0xc0($inp),$xc1,$xc1
2305 vpxor 0xe0($inp),$xd1,$xd1
2316 lea 0x100($inp),$inp # inp+=64*4
2326 vpxor 0x00($inp),$xa0,$xa0 # xor with input
2327 vpxor 0x20($inp),$xb0,$xb0
2328 vpxor 0x40($inp),$xc0,$xc0
2329 vpxor 0x60($inp),$xd0,$xd0
2330 vpxor 0x80($inp),$xa1,$xa1
2331 vpxor 0xa0($inp),$xb1,$xb1
2332 vpxor 0xc0($inp),$xc1,$xc1
2333 vpxor 0xe0($inp),$xd1,$xd1
2334 vpxor 0x100($inp),$xa2,$xa2
2335 vpxor 0x120($inp),$xb2,$xb2
2348 lea 0x140($inp),$inp # inp+=64*5
2358 vpxor 0x00($inp),$xa0,$xa0 # xor with input
2359 vpxor 0x20($inp),$xb0,$xb0
2360 vpxor 0x40($inp),$xc0,$xc0
2361 vpxor 0x60($inp),$xd0,$xd0
2362 vpxor 0x80($inp),$xa1,$xa1
2363 vpxor 0xa0($inp),$xb1,$xb1
2364 vpxor 0xc0($inp),$xc1,$xc1
2365 vpxor 0xe0($inp),$xd1,$xd1
2366 vpxor 0x100($inp),$xa2,$xa2
2367 vpxor 0x120($inp),$xb2,$xb2
2368 vpxor 0x140($inp),$xc2,$xc2
2369 vpxor 0x160($inp),$xd2,$xd2
2384 lea 0x180($inp),$inp # inp+=64*6
2394 vpxor 0x00($inp),$xa0,$xa0 # xor with input
2395 vpxor 0x20($inp),$xb0,$xb0
2396 vpxor 0x40($inp),$xc0,$xc0
2397 vpxor 0x60($inp),$xd0,$xd0
2398 vpxor 0x80($inp),$xa1,$xa1
2399 vpxor 0xa0($inp),$xb1,$xb1
2400 vpxor 0xc0($inp),$xc1,$xc1
2401 vpxor 0xe0($inp),$xd1,$xd1
2402 vpxor 0x100($inp),$xa2,$xa2
2403 vpxor 0x120($inp),$xb2,$xb2
2404 vpxor 0x140($inp),$xc2,$xc2
2405 vpxor 0x160($inp),$xd2,$xd2
2406 vpxor 0x180($inp),$xa3,$xa3
2407 vpxor 0x1a0($inp),$xb3,$xb3
2424 lea 0x1c0($inp),$inp # inp+=64*7
2432 movzb ($inp,%r10),%eax
2582 vpxor 0x00($inp),%x#$a,$t0 # xor with input
2583 vpxor 0x10($inp),%x#$b,$t1
2584 vpxor 0x20($inp),%x#$c,$t2
2585 vpxor 0x30($inp),%x#$d,$t3
2586 lea 0x40($inp),$inp # inp+=64
2604 vpxor 0x00($inp),$t0,$t0 # xor with input
2605 vpxor 0x10($inp),$t1,$t1
2606 vpxor 0x20($inp),$t2,$t2
2607 vpxor 0x30($inp),$t3,$t3
2608 lea 0x40($inp),$inp # inp+=64
2626 vpxor 0x00($inp),$t0,$t0 # xor with input
2627 vpxor 0x10($inp),$t1,$t1
2628 vpxor 0x20($inp),$t2,$t2
2629 vpxor 0x30($inp),$t3,$t3
2630 lea 0x40($inp),$inp # inp+=64
2648 vpxor 0x00($inp),$t0,$t0 # xor with input
2649 vpxor 0x10($inp),$t1,$t1
2650 vpxor 0x20($inp),$t2,$t2
2651 vpxor 0x30($inp),$t3,$t3
2652 lea 0x40($inp),$inp # inp+=64
2682 movzb ($inp,$counter),%eax
2792 vpxor 0x00($inp),%x#$a,$t0 # xor with input
2793 vpxor 0x10($inp),%x#$b,$t1
2794 vpxor 0x20($inp),%x#$c,$t2
2795 vpxor 0x30($inp),%x#$d,$t3
2796 lea 0x40($inp),$inp # inp+=64
2814 vpxor 0x00($inp),$t0,$t0 # xor with input
2815 vpxor 0x10($inp),$t1,$t1
2816 vpxor 0x20($inp),$t2,$t2
2817 vpxor 0x30($inp),$t3,$t3
2818 lea 0x40($inp),$inp # inp+=64
2850 movzb ($inp,$counter),%eax
3183 vpxord 0x00($inp),$xa0,$xa0 # xor with input
3184 vpxord 0x40($inp),$xb0,$xb0
3185 vpxord 0x80($inp),$xc0,$xc0
3186 vpxord 0xc0($inp),$xd0,$xd0
3192 vpxord 0x100($inp),$xa1,$xa1
3193 vpxord 0x140($inp),$xb1,$xb1
3194 vpxord 0x180($inp),$xc1,$xc1
3195 vpxord 0x1c0($inp),$xd1,$xd1
3201 vpxord 0x200($inp),$xa2,$xa2
3202 vpxord 0x240($inp),$xb2,$xb2
3203 vpxord 0x280($inp),$xc2,$xc2
3204 vpxord 0x2c0($inp),$xd2,$xd2
3210 vpxord 0x300($inp),$xa3,$xa3
3211 vpxord 0x340($inp),$xb3,$xb3
3212 vpxord 0x380($inp),$xc3,$xc3
3213 vpxord 0x3c0($inp),$xd3,$xd3
3214 lea 0x400($inp),$inp
3229 sub $inp,$out
3232 vpxord ($inp),$xa0,$xa0 # xor with input
3233 vmovdqu32 $xa0,($out,$inp)
3236 lea 64($inp),$inp
3240 vpxord ($inp),$xb0,$xb0
3241 vmovdqu32 $xb0,($out,$inp)
3244 lea 64($inp),$inp
3248 vpxord ($inp),$xc0,$xc0
3249 vmovdqu32 $xc0,($out,$inp)
3252 lea 64($inp),$inp
3256 vpxord ($inp),$xd0,$xd0
3257 vmovdqu32 $xd0,($out,$inp)
3260 lea 64($inp),$inp
3264 vpxord ($inp),$xa1,$xa1
3265 vmovdqu32 $xa1,($out,$inp)
3268 lea 64($inp),$inp
3272 vpxord ($inp),$xb1,$xb1
3273 vmovdqu32 $xb1,($out,$inp)
3276 lea 64($inp),$inp
3280 vpxord ($inp),$xc1,$xc1
3281 vmovdqu32 $xc1,($out,$inp)
3284 lea 64($inp),$inp
3288 vpxord ($inp),$xd1,$xd1
3289 vmovdqu32 $xd1,($out,$inp)
3292 lea 64($inp),$inp
3296 vpxord ($inp),$xa2,$xa2
3297 vmovdqu32 $xa2,($out,$inp)
3300 lea 64($inp),$inp
3304 vpxord ($inp),$xb2,$xb2
3305 vmovdqu32 $xb2,($out,$inp)
3308 lea 64($inp),$inp
3312 vpxord ($inp),$xc2,$xc2
3313 vmovdqu32 $xc2,($out,$inp)
3316 lea 64($inp),$inp
3320 vpxord ($inp),$xd2,$xd2
3321 vmovdqu32 $xd2,($out,$inp)
3324 lea 64($inp),$inp
3328 vpxord ($inp),$xa3,$xa3
3329 vmovdqu32 $xa3,($out,$inp)
3332 lea 64($inp),$inp
3336 vpxord ($inp),$xb3,$xb3
3337 vmovdqu32 $xb3,($out,$inp)
3340 lea 64($inp),$inp
3344 vpxord ($inp),$xc3,$xc3
3345 vmovdqu32 $xc3,($out,$inp)
3348 lea 64($inp),$inp
3352 lea ($out,$inp),$out
3356 movzb ($inp,%r10),%eax
3601 vpxord 0x00($inp),$xa0,$xa0 # xor with input
3602 vpxor 0x20($inp),$xb0,$xb0
3603 vpxor 0x40($inp),$xc0,$xc0
3604 vpxor 0x60($inp),$xd0,$xd0
3605 lea ($inp,%rax),$inp # size optimization
3612 vpxor 0x00($inp),$xa1,$xa1
3613 vpxor 0x20($inp),$xb1,$xb1
3614 vpxor 0x40($inp),$xc1,$xc1
3615 vpxor 0x60($inp),$xd1,$xd1
3616 lea ($inp,%rax),$inp # size optimization
3623 vpxord 0x00($inp),$xa2,$xa2
3624 vpxor 0x20($inp),$xb2,$xb2
3625 vpxor 0x40($inp),$xc2,$xc2
3626 vpxor 0x60($inp),$xd2,$xd2
3627 lea ($inp,%rax),$inp # size optimization
3634 vpxor 0x00($inp),$xa3,$xa3
3635 vpxor 0x20($inp),$xb3,$xb3
3636 vpxor 0x40($inp),$xc3,$xc3
3637 vpxor 0x60($inp),$xd3,$xd3
3638 lea ($inp,%rax),$inp # size optimization
3660 sub $inp,$out
3663 vpxor 0x00($inp),$xa0,$xa0 # xor with input
3664 vpxor 0x20($inp),$xb0,$xb0
3665 vmovdqu $xa0,0x00($out,$inp)
3666 vmovdqu $xb0,0x20($out,$inp)
3670 lea 64($inp),$inp
3674 vpxor 0x00($inp),$xc0,$xc0
3675 vpxor 0x20($inp),$xd0,$xd0
3676 vmovdqu $xc0,0x00($out,$inp)
3677 vmovdqu $xd0,0x20($out,$inp)
3681 lea 64($inp),$inp
3685 vpxor 0x00($inp),$xa1,$xa1
3686 vpxor 0x20($inp),$xb1,$xb1
3687 vmovdqu $xa1,0x00($out,$inp)
3688 vmovdqu $xb1,0x20($out,$inp)
3692 lea 64($inp),$inp
3696 vpxor 0x00($inp),$xc1,$xc1
3697 vpxor 0x20($inp),$xd1,$xd1
3698 vmovdqu $xc1,0x00($out,$inp)
3699 vmovdqu $xd1,0x20($out,$inp)
3703 lea 64($inp),$inp
3707 vpxord 0x00($inp),$xa2,$xa2
3708 vpxor 0x20($inp),$xb2,$xb2
3709 vmovdqu32 $xa2,0x00($out,$inp)
3710 vmovdqu $xb2,0x20($out,$inp)
3714 lea 64($inp),$inp
3718 vpxor 0x00($inp),$xc2,$xc2
3719 vpxor 0x20($inp),$xd2,$xd2
3720 vmovdqu $xc2,0x00($out,$inp)
3721 vmovdqu $xd2,0x20($out,$inp)
3725 lea 64($inp),$inp
3729 vpxor 0x00($inp),$xa3,$xa3
3730 vpxor 0x20($inp),$xb3,$xb3
3731 vmovdqu $xa3,0x00($out,$inp)
3732 vmovdqu $xb3,0x20($out,$inp)
3736 lea 64($inp),$inp
3741 lea ($out,$inp),$out
3745 movzb ($inp,%r10),%eax