Lines Matching refs:rsp
390 … lea -168(%rsp),%rsp # 16*10 + (8 bytes to get correct 16-byte SIMD alignment)
391 vmovdqa64 %xmm6, `0*16`(%rsp) # save non-volatile registers
392 vmovdqa64 %xmm7, `1*16`(%rsp)
393 vmovdqa64 %xmm8, `2*16`(%rsp)
394 vmovdqa64 %xmm9, `3*16`(%rsp)
395 vmovdqa64 %xmm10,`4*16`(%rsp)
396 vmovdqa64 %xmm11,`5*16`(%rsp)
397 vmovdqa64 %xmm12,`6*16`(%rsp)
398 vmovdqa64 %xmm13,`7*16`(%rsp)
399 vmovdqa64 %xmm14,`8*16`(%rsp)
400 vmovdqa64 %xmm15,`9*16`(%rsp)
450 lea (%rsp),%rax
464 lea 168(%rsp),%rax
479 lea 48(%rax),%rsp # restore rsp
480 .cfi_def_cfa %rsp,8
537 lea -168(%rsp),%rsp
538 vmovdqa64 %xmm6, `0*16`(%rsp) # save non-volatile registers
539 vmovdqa64 %xmm7, `1*16`(%rsp)
540 vmovdqa64 %xmm8, `2*16`(%rsp)
541 vmovdqa64 %xmm9, `3*16`(%rsp)
542 vmovdqa64 %xmm10,`4*16`(%rsp)
543 vmovdqa64 %xmm11,`5*16`(%rsp)
544 vmovdqa64 %xmm12,`6*16`(%rsp)
545 vmovdqa64 %xmm13,`7*16`(%rsp)
546 vmovdqa64 %xmm14,`8*16`(%rsp)
547 vmovdqa64 %xmm15,`9*16`(%rsp)
614 lea (%rsp),%rax
628 lea 168(%rsp),%rax
643 lea 48(%rax),%rsp
644 .cfi_def_cfa %rsp,8
762 sub \$64,%rsp
822 mov %r10,32(%rsp) # arg5
823 mov %r11,40(%rsp) # arg6
824 mov %r12,48(%rsp) # arg7
825 mov %rcx,56(%rsp) # arg8, (NULL)
829 add \$64,%rsp