Lines Matching refs:inp

87 my ($inp,$bits,$out,$ptr,$cnt,$rounds)=map("r$_",(3..8));
122 ${UCMP}i $inp,0
123 beq- Lenc_key_abort # if ($inp==0) return -1;
141 neg r9,$inp
142 lvx $in0,0,$inp
143 addi $inp,$inp,15 # 15 is not typo
147 lvx $in1,0,$inp
164 addi $inp,$inp,8
166 addi $inp,$inp,8
228 addi $inp,$out,15 # 15 is not typo
236 lvx $tmp,0,$inp
301 addi $inp,$out,15 # 15 is not typo
311 lvx $tmp,0,$inp
343 addi $inp,$out,15 # 15 is not typo
362 lvx $in1,0,$inp # redundant in aligned case
364 stvx $in1,0,$inp
390 subi $inp,$out,240 # first round key
392 add $out,$inp,$cnt # last round key
396 lwz r0, 0($inp)
397 lwz r6, 4($inp)
398 lwz r7, 8($inp)
399 lwz r8, 12($inp)
400 addi $inp,$inp,16
410 stw r9, -16($inp)
411 stw r10,-12($inp)
412 stw r11,-8($inp)
413 stw r12,-4($inp)
431 my ($inp,$out,$key,$rounds,$idx)=map("r$_",(3..7));
443 lvx v0,0,$inp
445 lvx v1,$idx,$inp
446 lvsl v2,0,$inp # inpperm
508 my ($inp,$out,$len,$key,$ivp,$enc,$rounds,$idx)=map("r$_",(3..10));
534 neg r11,$inp
539 lvx $inptail,0,$inp
540 addi $inp,$inp,15 # 15 is not typo
556 lvx $inptail,0,$inp
557 addi $inp,$inp,16
604 lvx $inptail,0,$inp
605 addi $inp,$inp,16
773 #lvx $inptail,0,$inp # "caller" already did this
774 #addi $inp,$inp,15 # 15 is not typo
775 subi $inp,$inp,15 # undo "caller"
778 lvx_u $in0,$x00,$inp # load first 8 "words"
781 lvx_u $in1,$x10,$inp
783 lvx_u $in2,$x20,$inp
785 lvx_u $in3,$x30,$inp
787 lvx_u $in4,$x40,$inp
790 lvx_u $in5,$x50,$inp
793 lvx_u $in6,$x60,$inp
796 lvx_u $in7,$x70,$inp
797 addi $inp,$inp,0x80
863 add $inp,$inp,r0 # $inp is adjusted in such
916 lvx_u $in0,$x00,$inp # load next input block
918 lvx_u $in1,$x10,$inp
921 lvx_u $in2,$x20,$inp
924 lvx_u $in3,$x30,$inp
927 lvx_u $in4,$x40,$inp
930 lvx_u $in5,$x50,$inp
933 lvx_u $in6,$x60,$inp
936 lvx_u $in7,$x70,$inp
937 addi $inp,$inp,0x80
1266 my ($inp,$out,$len,$key,$ivp,$x10,$rounds,$idx)=map("r$_",(3..10));
1295 neg r11,$inp
1300 lvx $inptail,0,$inp
1301 addi $inp,$inp,15 # 15 is not typo
1341 lvx $inptail,0,$inp
1342 addi $inp,$inp,16
1480 subi $inp,$inp,15 # undo "caller"
1576 lvx_u $in0,$x00,$inp # load input
1578 lvx_u $in1,$x10,$inp
1580 lvx_u $in2,$x20,$inp
1582 lvx_u $in3,$x30,$inp
1584 lvx_u $in4,$x40,$inp
1586 lvx_u $in5,$x50,$inp
1588 lvx_u $in6,$x60,$inp
1590 lvx_u $in7,$x70,$inp
1591 addi $inp,$inp,0x80
1610 add $inp,$inp,r0 # $inp is adjusted in such
1928 my ($inp,$out,$len,$key1,$key2,$ivp,$rounds,$idx) = map("r$_",(3..10));
1934 ($inp,$idx) = ($idx,$inp); # reassign
1940 mr $inp,r3 # reassign
1962 neg r11,$inp
1964 lvx $inout,0,$inp
1965 addi $inp,$inp,15 # 15 is not typo
2012 lvx $inptail,0,$inp
2013 addi $inp,$inp,16
2034 add $inp,$inp,r0
2078 lvx $inptail,0,$inp
2079 addi $inp,$inp,16
2087 add $inp,$inp,r0
2151 mr $inp,r3 # reassign
2178 neg r11,$inp
2180 lvx $inout,0,$inp
2181 addi $inp,$inp,15 # 15 is not typo
2229 lvx $inptail,0,$inp
2230 addi $inp,$inp,16
2291 lvx $inptail,0,$inp
2292 addi $inp,$inp,16
2321 subi $inp,$inp,16
2322 add $inp,$inp,$len
2352 lvx $inptail,0,$inp
2353 #addi $inp,$inp,16
2527 subi $inp,$inp,31 # undo "caller"
2536 lvx_u $in1,$x10,$inp
2546 lvx_u $in2,$x20,$inp
2557 lvx_u $in3,$x30,$inp
2568 lvx_u $in4,$x40,$inp
2579 lvx_u $in5,$x50,$inp
2580 addi $inp,$inp,0x60
2654 add $inp,$inp,r0 # $inp is adjusted in such
2714 lvx_u $in0,$x00,$inp # load next input block
2717 lvx_u $in1,$x10,$inp
2720 lvx_u $in2,$x20,$inp
2724 lvx_u $in3,$x30,$inp
2727 lvx_u $in4,$x40,$inp
2735 lvx_u $in5,$x50,$inp
2736 addi $inp,$inp,0x60
2881 add $inp,$inp,$taillen
2885 subi $inp,$inp,16
2891 lvx_u $in0,0,$inp
2921 add $inp,$inp,$taillen
2922 subi $inp,$inp,16
2923 lvx_u $in0,0,$inp
3030 add $inp,$inp,$taillen
3038 subi $inp,$inp,16
3055 lvx_u $in0,0,$inp
3197 subi $inp,$inp,31 # undo "caller"
3206 lvx_u $in1,$x10,$inp
3216 lvx_u $in2,$x20,$inp
3227 lvx_u $in3,$x30,$inp
3238 lvx_u $in4,$x40,$inp
3249 lvx_u $in5,$x50,$inp
3250 addi $inp,$inp,0x60
3324 add $inp,$inp,r0 # $inp is adjusted in such
3384 lvx_u $in0,$x00,$inp # load next input block
3387 lvx_u $in1,$x10,$inp
3390 lvx_u $in2,$x20,$inp
3394 lvx_u $in3,$x30,$inp
3397 lvx_u $in4,$x40,$inp
3404 lvx_u $in5,$x50,$inp
3405 addi $inp,$inp,0x60
3560 sub $inp,$inp,r0
3563 lvx_u $in0,0,$inp
3594 lvx_u $in0,0,$inp
3606 add $inp,$inp,$taillen
3612 lvx_u $in0,0,$inp
3752 sub $inp,$inp,r0
3761 lvx_u $in0,0,$inp