Lines Matching refs:s0
117 $s0="%r8";
273 llgf $s0,0($inp)
282 st $s0,0($out)
295 x $s0,0($key)
305 sllg $t1,$s0,`0+3`
306 srlg $t2,$s0,`8-3`
307 srlg $t3,$s0,`16-3`
308 srl $s0,`24-3`
309 nr $s0,$mask
323 l $s0,0($s0,$tbl) # Te0[s0>>24]
328 x $s0,3($i1,$tbl) # Te1[s1>>16]
349 x $s0,2($i1,$tbl) # Te2[s2>>8]
360 x $s0,0($key)
365 x $s0,1($t1,$tbl) # Te3[s3>>0]
374 sllg $t1,$s0,`0+3`
375 srlg $t2,$s0,`8-3`
377 srlg $t3,$s0,`16-3`
378 srl $s0,`24-3`
379 nr $s0,$mask
392 llgc $s0,2($s0,$tbl) # Te4[s0>>24]
394 sll $s0,24
407 or $s0,$i1
433 or $s0,$i1
453 or $s0,$i1
459 xr $s0,$t0
599 llgf $s0,0($inp)
608 st $s0,0($out)
621 x $s0,0($key)
631 srlg $t1,$s0,`16-3`
632 srlg $t2,$s0,`8-3`
633 sllg $t3,$s0,`0+3`
634 srl $s0,`24-3`
635 nr $s0,$mask
649 l $s0,0($s0,$tbl) # Td0[s0>>24]
654 x $s0,1($i1,$tbl) # Td3[s1>>0]
675 x $s0,2($i1,$tbl) # Td2[s2>>8]
686 x $s0,0($key)
691 x $s0,3($t1,$tbl) # Td1[s3>>16]
706 srlg $i3,$s0,24 # i0
707 srlg $t1,$s0,16
708 srlg $t2,$s0,8
709 nr $s0,$mask # i3
724 llgc $t3,2048($s0,$tbl) # Td4[s0>>0]
725 sllg $s0,$i3,24
735 or $s0,$s1
752 or $s0,$i1
776 or $s0,$i1
781 xr $s0,$t0
857 llgf $s0,0($inp)
861 st $s0,0($key)
893 xr $s0,$t2 # rk[4]=rk[0]^...
894 xr $s1,$s0 # rk[5]=rk[1]^rk[4]
906 st $s0,16($key)
952 xr $s0,$t1 # rk[6]=rk[0]^...
953 xr $s1,$s0 # rk[7]=rk[1]^rk[6]
957 st $s0,24($key)
1016 xr $s0,$t1 # rk[8]=rk[0]^...
1017 xr $s1,$s0 # rk[9]=rk[1]^rk[8]
1020 st $s0,32($key)
1105 .Linv: lmg $s0,$s1,0($i1)
1107 stmg $s0,$s1,0($i2)
1128 .Lmix: l $s0,16($key) # tp1
1129 lr $s1,$s0
1134 sllg $t1,$s0,1
1156 xr $s1,$s0 # tp2^tp1
1157 xr $s2,$s0 # tp4^tp1
1158 rll $s0,$s0,24 # = ROTATE(tp1,8)
1160 xr $s0,$s1 # ^=tp2^tp1
1162 xr $s0,$s2 # ^=tp4^tp1^tp8
1165 xr $s0,$s1 # ^= ROTATE(tp8^tp2^tp1,24)
1167 xr $s0,$s2 # ^= ROTATE(tp8^tp4^tp1,16)
1168 xr $s0,$s3 # ^= ROTATE(tp8,8)
1170 st $s0,16($key)
1265 llgf $s0,0($ivp)
1275 x $s0,0($inp)
1284 st $s0,0($out)
1300 st $s0,0($ivp)
1331 llgf $s0,0($inp)
1340 sllg $s0,$s0,32
1342 lr $s0,$s1
1347 xg $s0,16*$SIZE_T($sp)
1353 stg $s0,0($out)
1362 stg $s0,0($out)
1373 stg $s0,16*$SIZE_T($sp)
1473 lghi $s0,-1024-256-16# guarantee at least 256-bytes buffer
1475 algr $s0,$sp
1477 ngr $s0,$s1 # align at page boundary
1478 slgr $fp,$s0 # total buffer size
1484 la $sp,1024($s0) # alloca
1498 llgfr $s0,%r0
1502 srlg %r0,%r0,0($s0)
1504 lgr %r0,$s0
1552 la $s0,16($sp) # inp
1562 lg $s0,0($inp)
1564 xg $s0,0($s2,$inp)
1566 stg $s0,0($out,$inp)
1577 l${g} $s0,0($sp)
1581 stg $s0,0($s2)
1582 stg $s0,8($s2)
1586 la $sp,0($s0)
1600 llgf $s0,0($ivp)
1611 x $s0,0($inp,$out)
1615 stm $s0,$s3,0($out)
1647 llgfr $s0,%r0 # put aside the function code
1654 lgr %r0,$s0 # restore the function code
1666 lmg $s0,$s3,0($key1) # load 256 bits of key material,
1667 stmg $s0,$s3,0(%r1) # and copy it to parameter block.
1677 lrvg $s0,$tweak+0($sp) # load the last tweak
1695 lghi $s0,-1024-256-16# guarantee at least 256-bytes buffer
1697 algr $s0,$sp
1699 ngr $s0,$s1 # align at page boundary
1700 slgr $fp,$s0 # total buffer size
1706 la $sp,1024($s0) # alloca
1719 lrvg $s0,$tweak+0($s2) # load the tweak value in little-endian
1735 algr $s0,$s0
1737 xgr $s0,$i1
1739 lrvgr $i1,$s0 # flip byte order
1794 algr $s0,$s0
1796 xgr $s0,$i1
1837 lmg $s0,$s1,0($s3)
1839 stmg $s0,$s1,0($s2)
1861 lrvgr $i1,$s0 # flip byte order
1869 lrvgr $i1,$s0 # flip byte order
1891 llgf $s0,0($s3) # load iv
1900 stm $s0,$s3,$tweak($sp) # save the tweak
1915 srlg $s0,$s1,32 # smash the tweak to 4x32-bits
1923 x $s0,0($inp) # ^=*($inp)
1931 x $s0,$tweak+0($sp) # ^=tweak
1935 st $s0,0($out,$inp)
1966 srlg $s0,$s1,32 # smash the tweak to 4x32-bits
1973 x $s0,0($out) # ^=*(inp)|stolen cipther-text
1981 x $s0,`$tweak+0`($sp) # ^=tweak
1985 st $s0,0($out)
2040 lmg $s0,$s1,0($s3)
2042 stmg $s0,$s1,0($s2)
2055 lrvgr $s2,$s0 # make copy in reverse byte order
2062 lrvg $s0,$tweak+0($sp) # load the tweak
2064 lrvgr $s2,$s0 # make copy in reverse byte order
2071 algr $s0,$s0
2073 xgr $s0,$i1
2074 lrvgr $i1,$s0 # flip byte order
2085 lrvgr $i1,$s0
2101 lgr $s0,$s2
2103 xg $s0,0($i3)
2105 stg $s0,0($i3)
2107 la $s0,0($i3)
2109 .long 0xb92e0088 # km $s0,$s0
2131 llgf $s0,0($s3) # load iv
2142 stm $s0,$s3,$tweak($sp) # save the tweak
2158 srlg $s0,$s1,32 # smash the tweak to 4x32-bits
2165 x $s0,0($inp) # tweak^=*(inp)
2173 x $s0,$tweak+0($sp) # ^=tweak
2177 st $s0,0($out,$inp)
2217 srlg $s0,$s1,32 # smash the tweak to 4x32-bits
2224 x $s0,0($inp) # tweak_the_2nd^=*(inp)
2232 x $s0,$tweak-16+0($sp) # ^=tweak_the_2nd
2236 st $s0,0($out,$inp)
2251 lm $s0,$s3,$tweak($sp) # load the 1st tweak
2252 x $s0,0($out) # tweak^=*(inp)|stolen cipher-text
2260 x $s0,$tweak+0($sp) # ^=tweak
2264 st $s0,0($out)