Lines Matching refs:inp
98 ($out,$inp,$len,$key,$counter)=("%rdi","%rsi","%rdx","%rcx","%r8");
320 mov $inp,64+8(%rsp) # save inp
340 mov 64+8(%rsp),$inp # load inp
361 xor 4*0($inp),@x[0] # xor with input
362 xor 4*1($inp),@x[1]
363 xor 4*2($inp),@x[2]
364 xor 4*3($inp),@x[3]
365 xor 4*4($inp),@x[4]
366 xor 4*5($inp),@x[5]
367 xor 4*6($inp),@x[6]
368 xor 4*7($inp),@x[7]
369 movdqu 4*8($inp),%xmm0
370 xor 4*12($inp),@x[12]
371 xor 4*13($inp),@x[13]
372 xor 4*14($inp),@x[14]
373 xor 4*15($inp),@x[15]
374 lea 4*16($inp),$inp # inp+=64
418 movzb ($inp,%rbx),%eax
558 movdqu 0x00($inp),$t
559 movdqu 0x10($inp),$t1
561 movdqu 0x20($inp),$t
563 movdqu 0x30($inp),$t1
564 lea 0x40($inp),$inp # inp+=64
588 movzb ($inp,$counter),%eax
734 movdqu 0x00($inp),$t
735 movdqu 0x10($inp),$t1
737 movdqu 0x20($inp),$t
739 movdqu 0x30($inp),$t1
741 movdqu 0x40($inp),$t
743 movdqu 0x50($inp),$t1
745 movdqu 0x60($inp),$t
747 movdqu 0x70($inp),$t1
1135 movdqu 0x00($inp),$xt0 # xor with input
1136 movdqu 0x10($inp),$xt1
1137 movdqu 0x20($inp),$xt2
1138 movdqu 0x30($inp),$xt3
1145 movdqu 0x40($inp),$xt0
1147 movdqu 0x50($inp),$xt1
1149 movdqu 0x60($inp),$xt2
1151 movdqu 0x70($inp),$xt3
1152 lea 0x80($inp),$inp # size optimization
1159 movdqu 0x00($inp),$xt0
1161 movdqu 0x10($inp),$xt1
1163 movdqu 0x20($inp),$xt2
1166 movdqu 0x30($inp),$xt3
1173 movdqu 0x40($inp),$xt0
1175 movdqu 0x50($inp),$xt1
1177 movdqu 0x60($inp),$xt2
1179 movdqu 0x70($inp),$xt3
1180 lea 0x80($inp),$inp # inp+=64*4
1214 movdqu 0x00($inp),$xt0 # xor with input
1215 movdqu 0x10($inp),$xt1
1216 movdqu 0x20($inp),$xt2
1217 movdqu 0x30($inp),$xt3
1229 lea 0x40($inp),$inp # inp+=64*1
1241 movdqu 0x00($inp),$xt0 # xor with input
1242 movdqu 0x10($inp),$xt1
1243 movdqu 0x20($inp),$xt2
1244 movdqu 0x30($inp),$xt3
1251 movdqu 0x40($inp),$xt0
1253 movdqu 0x50($inp),$xt1
1255 movdqu 0x60($inp),$xt2
1257 movdqu 0x70($inp),$xt3
1269 lea 0x80($inp),$inp # inp+=64*2
1281 movdqu 0x00($inp),$xt0 # xor with input
1282 movdqu 0x10($inp),$xt1
1283 movdqu 0x20($inp),$xt2
1284 movdqu 0x30($inp),$xt3
1291 movdqu 0x40($inp),$xt0
1293 movdqu 0x50($inp),$xt1
1295 movdqu 0x60($inp),$xt2
1297 movdqu 0x70($inp),$xt3
1298 lea 0x80($inp),$inp # size optimization
1305 movdqu 0x00($inp),$xt0
1307 movdqu 0x10($inp),$xt1
1309 movdqu 0x20($inp),$xt2
1312 movdqu 0x30($inp),$xt3
1324 lea 0x40($inp),$inp # inp+=64*3
1334 movzb ($inp,%r10),%eax
1636 vpxor 0x00($inp),$xa0,$xa0 # xor with input
1637 vpxor 0x10($inp),$xb0,$xb0
1638 vpxor 0x20($inp),$xc0,$xc0
1639 vpxor 0x30($inp),$xd0,$xd0
1640 vpxor 0x40($inp),$xa1,$xa1
1641 vpxor 0x50($inp),$xb1,$xb1
1642 vpxor 0x60($inp),$xc1,$xc1
1643 vpxor 0x70($inp),$xd1,$xd1
1644 lea 0x80($inp),$inp # size optimization
1645 vpxor 0x00($inp),$xa2,$xa2
1646 vpxor 0x10($inp),$xb2,$xb2
1647 vpxor 0x20($inp),$xc2,$xc2
1648 vpxor 0x30($inp),$xd2,$xd2
1649 vpxor 0x40($inp),$xa3,$xa3
1650 vpxor 0x50($inp),$xb3,$xb3
1651 vpxor 0x60($inp),$xc3,$xc3
1652 vpxor 0x70($inp),$xd3,$xd3
1653 lea 0x80($inp),$inp # inp+=64*4
1697 vpxor 0x00($inp),$xa0,$xa0 # xor with input
1698 vpxor 0x10($inp),$xb0,$xb0
1699 vpxor 0x20($inp),$xc0,$xc0
1700 vpxor 0x30($inp),$xd0,$xd0
1707 lea 0x40($inp),$inp # inp+=64*1
1719 vpxor 0x00($inp),$xa0,$xa0 # xor with input
1720 vpxor 0x10($inp),$xb0,$xb0
1721 vpxor 0x20($inp),$xc0,$xc0
1722 vpxor 0x30($inp),$xd0,$xd0
1723 vpxor 0x40($inp),$xa1,$xa1
1724 vpxor 0x50($inp),$xb1,$xb1
1725 vpxor 0x60($inp),$xc1,$xc1
1726 vpxor 0x70($inp),$xd1,$xd1
1738 lea 0x80($inp),$inp # inp+=64*2
1750 vpxor 0x00($inp),$xa0,$xa0 # xor with input
1751 vpxor 0x10($inp),$xb0,$xb0
1752 vpxor 0x20($inp),$xc0,$xc0
1753 vpxor 0x30($inp),$xd0,$xd0
1754 vpxor 0x40($inp),$xa1,$xa1
1755 vpxor 0x50($inp),$xb1,$xb1
1756 vpxor 0x60($inp),$xc1,$xc1
1757 vpxor 0x70($inp),$xd1,$xd1
1758 lea 0x80($inp),$inp # size optimization
1759 vpxor 0x00($inp),$xa2,$xa2
1760 vpxor 0x10($inp),$xb2,$xb2
1761 vpxor 0x20($inp),$xc2,$xc2
1762 vpxor 0x30($inp),$xd2,$xd2
1779 lea 0x40($inp),$inp # inp+=64*3
1789 movzb ($inp,%r10),%eax
2168 vpxor 0x00($inp),$xa0,$xa0 # xor with input
2169 vpxor 0x20($inp),$xb0,$xb0
2170 vpxor 0x40($inp),$xc0,$xc0
2171 vpxor 0x60($inp),$xd0,$xd0
2172 lea 0x80($inp),$inp # size optimization
2179 vpxor 0x00($inp),$xa1,$xa1
2180 vpxor 0x20($inp),$xb1,$xb1
2181 vpxor 0x40($inp),$xc1,$xc1
2182 vpxor 0x60($inp),$xd1,$xd1
2183 lea 0x80($inp),$inp # size optimization
2190 vpxor 0x00($inp),$xa2,$xa2
2191 vpxor 0x20($inp),$xb2,$xb2
2192 vpxor 0x40($inp),$xc2,$xc2
2193 vpxor 0x60($inp),$xd2,$xd2
2194 lea 0x80($inp),$inp # size optimization
2201 vpxor 0x00($inp),$xa3,$xa3
2202 vpxor 0x20($inp),$xb3,$xb3
2203 vpxor 0x40($inp),$xc3,$xc3
2204 vpxor 0x60($inp),$xd3,$xd3
2205 lea 0x80($inp),$inp # size optimization
2240 vpxor 0x00($inp),$xa0,$xa0 # xor with input
2241 vpxor 0x20($inp),$xb0,$xb0
2246 lea 0x40($inp),$inp # inp+=64*1
2256 vpxor 0x00($inp),$xa0,$xa0 # xor with input
2257 vpxor 0x20($inp),$xb0,$xb0
2258 vpxor 0x40($inp),$xc0,$xc0
2259 vpxor 0x60($inp),$xd0,$xd0
2266 lea 0x80($inp),$inp # inp+=64*2
2276 vpxor 0x00($inp),$xa0,$xa0 # xor with input
2277 vpxor 0x20($inp),$xb0,$xb0
2278 vpxor 0x40($inp),$xc0,$xc0
2279 vpxor 0x60($inp),$xd0,$xd0
2280 vpxor 0x80($inp),$xa1,$xa1
2281 vpxor 0xa0($inp),$xb1,$xb1
2290 lea 0xc0($inp),$inp # inp+=64*3
2300 vpxor 0x00($inp),$xa0,$xa0 # xor with input
2301 vpxor 0x20($inp),$xb0,$xb0
2302 vpxor 0x40($inp),$xc0,$xc0
2303 vpxor 0x60($inp),$xd0,$xd0
2304 vpxor 0x80($inp),$xa1,$xa1
2305 vpxor 0xa0($inp),$xb1,$xb1
2306 vpxor 0xc0($inp),$xc1,$xc1
2307 vpxor 0xe0($inp),$xd1,$xd1
2318 lea 0x100($inp),$inp # inp+=64*4
2328 vpxor 0x00($inp),$xa0,$xa0 # xor with input
2329 vpxor 0x20($inp),$xb0,$xb0
2330 vpxor 0x40($inp),$xc0,$xc0
2331 vpxor 0x60($inp),$xd0,$xd0
2332 vpxor 0x80($inp),$xa1,$xa1
2333 vpxor 0xa0($inp),$xb1,$xb1
2334 vpxor 0xc0($inp),$xc1,$xc1
2335 vpxor 0xe0($inp),$xd1,$xd1
2336 vpxor 0x100($inp),$xa2,$xa2
2337 vpxor 0x120($inp),$xb2,$xb2
2350 lea 0x140($inp),$inp # inp+=64*5
2360 vpxor 0x00($inp),$xa0,$xa0 # xor with input
2361 vpxor 0x20($inp),$xb0,$xb0
2362 vpxor 0x40($inp),$xc0,$xc0
2363 vpxor 0x60($inp),$xd0,$xd0
2364 vpxor 0x80($inp),$xa1,$xa1
2365 vpxor 0xa0($inp),$xb1,$xb1
2366 vpxor 0xc0($inp),$xc1,$xc1
2367 vpxor 0xe0($inp),$xd1,$xd1
2368 vpxor 0x100($inp),$xa2,$xa2
2369 vpxor 0x120($inp),$xb2,$xb2
2370 vpxor 0x140($inp),$xc2,$xc2
2371 vpxor 0x160($inp),$xd2,$xd2
2386 lea 0x180($inp),$inp # inp+=64*6
2396 vpxor 0x00($inp),$xa0,$xa0 # xor with input
2397 vpxor 0x20($inp),$xb0,$xb0
2398 vpxor 0x40($inp),$xc0,$xc0
2399 vpxor 0x60($inp),$xd0,$xd0
2400 vpxor 0x80($inp),$xa1,$xa1
2401 vpxor 0xa0($inp),$xb1,$xb1
2402 vpxor 0xc0($inp),$xc1,$xc1
2403 vpxor 0xe0($inp),$xd1,$xd1
2404 vpxor 0x100($inp),$xa2,$xa2
2405 vpxor 0x120($inp),$xb2,$xb2
2406 vpxor 0x140($inp),$xc2,$xc2
2407 vpxor 0x160($inp),$xd2,$xd2
2408 vpxor 0x180($inp),$xa3,$xa3
2409 vpxor 0x1a0($inp),$xb3,$xb3
2426 lea 0x1c0($inp),$inp # inp+=64*7
2434 movzb ($inp,%r10),%eax
2584 vpxor 0x00($inp),%x#$a,$t0 # xor with input
2585 vpxor 0x10($inp),%x#$b,$t1
2586 vpxor 0x20($inp),%x#$c,$t2
2587 vpxor 0x30($inp),%x#$d,$t3
2588 lea 0x40($inp),$inp # inp+=64
2606 vpxor 0x00($inp),$t0,$t0 # xor with input
2607 vpxor 0x10($inp),$t1,$t1
2608 vpxor 0x20($inp),$t2,$t2
2609 vpxor 0x30($inp),$t3,$t3
2610 lea 0x40($inp),$inp # inp+=64
2628 vpxor 0x00($inp),$t0,$t0 # xor with input
2629 vpxor 0x10($inp),$t1,$t1
2630 vpxor 0x20($inp),$t2,$t2
2631 vpxor 0x30($inp),$t3,$t3
2632 lea 0x40($inp),$inp # inp+=64
2650 vpxor 0x00($inp),$t0,$t0 # xor with input
2651 vpxor 0x10($inp),$t1,$t1
2652 vpxor 0x20($inp),$t2,$t2
2653 vpxor 0x30($inp),$t3,$t3
2654 lea 0x40($inp),$inp # inp+=64
2684 movzb ($inp,$counter),%eax
2794 vpxor 0x00($inp),%x#$a,$t0 # xor with input
2795 vpxor 0x10($inp),%x#$b,$t1
2796 vpxor 0x20($inp),%x#$c,$t2
2797 vpxor 0x30($inp),%x#$d,$t3
2798 lea 0x40($inp),$inp # inp+=64
2816 vpxor 0x00($inp),$t0,$t0 # xor with input
2817 vpxor 0x10($inp),$t1,$t1
2818 vpxor 0x20($inp),$t2,$t2
2819 vpxor 0x30($inp),$t3,$t3
2820 lea 0x40($inp),$inp # inp+=64
2852 movzb ($inp,$counter),%eax
3185 vpxord 0x00($inp),$xa0,$xa0 # xor with input
3186 vpxord 0x40($inp),$xb0,$xb0
3187 vpxord 0x80($inp),$xc0,$xc0
3188 vpxord 0xc0($inp),$xd0,$xd0
3194 vpxord 0x100($inp),$xa1,$xa1
3195 vpxord 0x140($inp),$xb1,$xb1
3196 vpxord 0x180($inp),$xc1,$xc1
3197 vpxord 0x1c0($inp),$xd1,$xd1
3203 vpxord 0x200($inp),$xa2,$xa2
3204 vpxord 0x240($inp),$xb2,$xb2
3205 vpxord 0x280($inp),$xc2,$xc2
3206 vpxord 0x2c0($inp),$xd2,$xd2
3212 vpxord 0x300($inp),$xa3,$xa3
3213 vpxord 0x340($inp),$xb3,$xb3
3214 vpxord 0x380($inp),$xc3,$xc3
3215 vpxord 0x3c0($inp),$xd3,$xd3
3216 lea 0x400($inp),$inp
3231 sub $inp,$out
3234 vpxord ($inp),$xa0,$xa0 # xor with input
3235 vmovdqu32 $xa0,($out,$inp)
3238 lea 64($inp),$inp
3242 vpxord ($inp),$xb0,$xb0
3243 vmovdqu32 $xb0,($out,$inp)
3246 lea 64($inp),$inp
3250 vpxord ($inp),$xc0,$xc0
3251 vmovdqu32 $xc0,($out,$inp)
3254 lea 64($inp),$inp
3258 vpxord ($inp),$xd0,$xd0
3259 vmovdqu32 $xd0,($out,$inp)
3262 lea 64($inp),$inp
3266 vpxord ($inp),$xa1,$xa1
3267 vmovdqu32 $xa1,($out,$inp)
3270 lea 64($inp),$inp
3274 vpxord ($inp),$xb1,$xb1
3275 vmovdqu32 $xb1,($out,$inp)
3278 lea 64($inp),$inp
3282 vpxord ($inp),$xc1,$xc1
3283 vmovdqu32 $xc1,($out,$inp)
3286 lea 64($inp),$inp
3290 vpxord ($inp),$xd1,$xd1
3291 vmovdqu32 $xd1,($out,$inp)
3294 lea 64($inp),$inp
3298 vpxord ($inp),$xa2,$xa2
3299 vmovdqu32 $xa2,($out,$inp)
3302 lea 64($inp),$inp
3306 vpxord ($inp),$xb2,$xb2
3307 vmovdqu32 $xb2,($out,$inp)
3310 lea 64($inp),$inp
3314 vpxord ($inp),$xc2,$xc2
3315 vmovdqu32 $xc2,($out,$inp)
3318 lea 64($inp),$inp
3322 vpxord ($inp),$xd2,$xd2
3323 vmovdqu32 $xd2,($out,$inp)
3326 lea 64($inp),$inp
3330 vpxord ($inp),$xa3,$xa3
3331 vmovdqu32 $xa3,($out,$inp)
3334 lea 64($inp),$inp
3338 vpxord ($inp),$xb3,$xb3
3339 vmovdqu32 $xb3,($out,$inp)
3342 lea 64($inp),$inp
3346 vpxord ($inp),$xc3,$xc3
3347 vmovdqu32 $xc3,($out,$inp)
3350 lea 64($inp),$inp
3354 lea ($out,$inp),$out
3358 movzb ($inp,%r10),%eax
3603 vpxord 0x00($inp),$xa0,$xa0 # xor with input
3604 vpxor 0x20($inp),$xb0,$xb0
3605 vpxor 0x40($inp),$xc0,$xc0
3606 vpxor 0x60($inp),$xd0,$xd0
3607 lea ($inp,%rax),$inp # size optimization
3614 vpxor 0x00($inp),$xa1,$xa1
3615 vpxor 0x20($inp),$xb1,$xb1
3616 vpxor 0x40($inp),$xc1,$xc1
3617 vpxor 0x60($inp),$xd1,$xd1
3618 lea ($inp,%rax),$inp # size optimization
3625 vpxord 0x00($inp),$xa2,$xa2
3626 vpxor 0x20($inp),$xb2,$xb2
3627 vpxor 0x40($inp),$xc2,$xc2
3628 vpxor 0x60($inp),$xd2,$xd2
3629 lea ($inp,%rax),$inp # size optimization
3636 vpxor 0x00($inp),$xa3,$xa3
3637 vpxor 0x20($inp),$xb3,$xb3
3638 vpxor 0x40($inp),$xc3,$xc3
3639 vpxor 0x60($inp),$xd3,$xd3
3640 lea ($inp,%rax),$inp # size optimization
3662 sub $inp,$out
3665 vpxor 0x00($inp),$xa0,$xa0 # xor with input
3666 vpxor 0x20($inp),$xb0,$xb0
3667 vmovdqu $xa0,0x00($out,$inp)
3668 vmovdqu $xb0,0x20($out,$inp)
3672 lea 64($inp),$inp
3676 vpxor 0x00($inp),$xc0,$xc0
3677 vpxor 0x20($inp),$xd0,$xd0
3678 vmovdqu $xc0,0x00($out,$inp)
3679 vmovdqu $xd0,0x20($out,$inp)
3683 lea 64($inp),$inp
3687 vpxor 0x00($inp),$xa1,$xa1
3688 vpxor 0x20($inp),$xb1,$xb1
3689 vmovdqu $xa1,0x00($out,$inp)
3690 vmovdqu $xb1,0x20($out,$inp)
3694 lea 64($inp),$inp
3698 vpxor 0x00($inp),$xc1,$xc1
3699 vpxor 0x20($inp),$xd1,$xd1
3700 vmovdqu $xc1,0x00($out,$inp)
3701 vmovdqu $xd1,0x20($out,$inp)
3705 lea 64($inp),$inp
3709 vpxord 0x00($inp),$xa2,$xa2
3710 vpxor 0x20($inp),$xb2,$xb2
3711 vmovdqu32 $xa2,0x00($out,$inp)
3712 vmovdqu $xb2,0x20($out,$inp)
3716 lea 64($inp),$inp
3720 vpxor 0x00($inp),$xc2,$xc2
3721 vpxor 0x20($inp),$xd2,$xd2
3722 vmovdqu $xc2,0x00($out,$inp)
3723 vmovdqu $xd2,0x20($out,$inp)
3727 lea 64($inp),$inp
3731 vpxor 0x00($inp),$xa3,$xa3
3732 vpxor 0x20($inp),$xb3,$xb3
3733 vmovdqu $xa3,0x00($out,$inp)
3734 vmovdqu $xb3,0x20($out,$inp)
3738 lea 64($inp),$inp
3743 lea ($out,$inp),$out
3747 movzb ($inp,%r10),%eax