Lines Matching refs:rsp
429 … lea -168(%rsp),%rsp # 16*10 + (8 bytes to get correct 16-byte SIMD alignment)
430 vmovdqa64 %xmm6, `0*16`(%rsp) # save non-volatile registers
431 vmovdqa64 %xmm7, `1*16`(%rsp)
432 vmovdqa64 %xmm8, `2*16`(%rsp)
433 vmovdqa64 %xmm9, `3*16`(%rsp)
434 vmovdqa64 %xmm10,`4*16`(%rsp)
435 vmovdqa64 %xmm11,`5*16`(%rsp)
436 vmovdqa64 %xmm12,`6*16`(%rsp)
437 vmovdqa64 %xmm13,`7*16`(%rsp)
438 vmovdqa64 %xmm14,`8*16`(%rsp)
439 vmovdqa64 %xmm15,`9*16`(%rsp)
490 lea (%rsp),%rax
504 lea 168(%rsp),%rax
519 lea 48(%rax),%rsp # restore rsp
520 .cfi_def_cfa %rsp,8
576 lea -168(%rsp),%rsp
577 vmovdqa64 %xmm6, `0*16`(%rsp) # save non-volatile registers
578 vmovdqa64 %xmm7, `1*16`(%rsp)
579 vmovdqa64 %xmm8, `2*16`(%rsp)
580 vmovdqa64 %xmm9, `3*16`(%rsp)
581 vmovdqa64 %xmm10,`4*16`(%rsp)
582 vmovdqa64 %xmm11,`5*16`(%rsp)
583 vmovdqa64 %xmm12,`6*16`(%rsp)
584 vmovdqa64 %xmm13,`7*16`(%rsp)
585 vmovdqa64 %xmm14,`8*16`(%rsp)
586 vmovdqa64 %xmm15,`9*16`(%rsp)
661 lea (%rsp),%rax
675 lea 168(%rsp),%rax
690 lea 48(%rax),%rsp
691 .cfi_def_cfa %rsp,8
818 sub \$64,%rsp
878 mov %r10,32(%rsp) # arg5
879 mov %r11,40(%rsp) # arg6
880 mov %r12,48(%rsp) # arg7
881 mov %rcx,56(%rsp) # arg8, (NULL)
885 add \$64,%rsp