Lines Matching +full:0 +full:- +full:128
1 /* Do not modify. This file is auto-generated from rsaz-avx2.pl. */
12 .cfi_offset %rbx,-16
14 .cfi_offset %rbp,-24
16 .cfi_offset %r12,-32
18 .cfi_offset %r13,-40
20 .cfi_offset %r14,-48
22 .cfi_offset %r15,-56
29 subq $-128,%rdi
30 subq $-128,%rsi
31 subq $-128,%r13
44 vmovdqu 0-128(%r13),%ymm0
45 andq $-2048,%rsp
46 vmovdqu 32-128(%r13),%ymm1
47 vmovdqu 64-128(%r13),%ymm2
48 vmovdqu 96-128(%r13),%ymm3
49 vmovdqu 128-128(%r13),%ymm4
50 vmovdqu 160-128(%r13),%ymm5
51 vmovdqu 192-128(%r13),%ymm6
52 vmovdqu 224-128(%r13),%ymm7
53 vmovdqu 256-128(%r13),%ymm8
54 leaq 832+128(%rsp),%r13
55 vmovdqu %ymm0,0-128(%r13)
56 vmovdqu %ymm1,32-128(%r13)
57 vmovdqu %ymm2,64-128(%r13)
58 vmovdqu %ymm3,96-128(%r13)
59 vmovdqu %ymm4,128-128(%r13)
60 vmovdqu %ymm5,160-128(%r13)
61 vmovdqu %ymm6,192-128(%r13)
62 vmovdqu %ymm7,224-128(%r13)
63 vmovdqu %ymm8,256-128(%r13)
64 vmovdqu %ymm9,288-128(%r13)
67 andq $-1024,%rsp
69 vmovdqu 32-128(%rsi),%ymm1
70 vmovdqu 64-128(%rsi),%ymm2
71 vmovdqu 96-128(%rsi),%ymm3
72 vmovdqu 128-128(%rsi),%ymm4
73 vmovdqu 160-128(%rsi),%ymm5
74 vmovdqu 192-128(%rsi),%ymm6
75 vmovdqu 224-128(%rsi),%ymm7
76 vmovdqu 256-128(%rsi),%ymm8
84 leaq 576+128(%rsp),%r9
91 vpbroadcastq 0-128(%rsi),%ymm10
93 vmovdqa %ymm1,0-128(%r9)
95 vmovdqa %ymm2,32-128(%r9)
97 vmovdqa %ymm3,64-128(%r9)
99 vmovdqa %ymm4,96-128(%r9)
101 vmovdqa %ymm5,128-128(%r9)
103 vmovdqa %ymm6,160-128(%r9)
105 vmovdqa %ymm7,192-128(%r9)
107 vmovdqa %ymm8,224-128(%r9)
109 vpmuludq 0-128(%rsi),%ymm10,%ymm0
110 vpbroadcastq 32-128(%rsi),%ymm11
111 vmovdqu %ymm9,288-192(%rbx)
113 vmovdqu %ymm9,320-448(%r12)
115 vmovdqu %ymm9,352-448(%r12)
117 vmovdqu %ymm9,384-448(%r12)
119 vmovdqu %ymm9,416-448(%r12)
121 vmovdqu %ymm9,448-448(%r12)
123 vmovdqu %ymm9,480-448(%r12)
125 vmovdqu %ymm9,512-448(%r12)
127 vpbroadcastq 64-128(%rsi),%ymm10
128 vmovdqu %ymm9,544-448(%r12)
135 vpbroadcastq 32-128(%r15),%ymm11
136 vpmuludq 0-128(%rsi),%ymm10,%ymm0
137 vpaddq 0-192(%rbx),%ymm0,%ymm0
138 vpmuludq 0-128(%r9),%ymm10,%ymm1
139 vpaddq 32-192(%rbx),%ymm1,%ymm1
140 vpmuludq 32-128(%r9),%ymm10,%ymm2
141 vpaddq 64-192(%rbx),%ymm2,%ymm2
142 vpmuludq 64-128(%r9),%ymm10,%ymm3
143 vpaddq 96-192(%rbx),%ymm3,%ymm3
144 vpmuludq 96-128(%r9),%ymm10,%ymm4
145 vpaddq 128-192(%rbx),%ymm4,%ymm4
146 vpmuludq 128-128(%r9),%ymm10,%ymm5
147 vpaddq 160-192(%rbx),%ymm5,%ymm5
148 vpmuludq 160-128(%r9),%ymm10,%ymm6
149 vpaddq 192-192(%rbx),%ymm6,%ymm6
150 vpmuludq 192-128(%r9),%ymm10,%ymm7
151 vpaddq 224-192(%rbx),%ymm7,%ymm7
152 vpmuludq 224-128(%r9),%ymm10,%ymm8
153 vpbroadcastq 64-128(%r15),%ymm10
154 vpaddq 256-192(%rbx),%ymm8,%ymm8
156 vmovdqu %ymm0,0-192(%rbx)
157 vmovdqu %ymm1,32-192(%rbx)
159 vpmuludq 32-128(%rsi),%ymm11,%ymm12
161 vpmuludq 32-128(%r9),%ymm11,%ymm14
163 vpmuludq 64-128(%r9),%ymm11,%ymm13
165 vpmuludq 96-128(%r9),%ymm11,%ymm12
167 vpmuludq 128-128(%r9),%ymm11,%ymm14
169 vpmuludq 160-128(%r9),%ymm11,%ymm13
171 vpmuludq 192-128(%r9),%ymm11,%ymm12
173 vpmuludq 224-128(%r9),%ymm11,%ymm0
174 vpbroadcastq 96-128(%r15),%ymm11
175 vpaddq 288-192(%rbx),%ymm0,%ymm0
177 vmovdqu %ymm2,64-192(%rbx)
178 vmovdqu %ymm3,96-192(%rbx)
180 vpmuludq 64-128(%rsi),%ymm10,%ymm13
182 vpmuludq 64-128(%r9),%ymm10,%ymm12
184 vpmuludq 96-128(%r9),%ymm10,%ymm14
186 vpmuludq 128-128(%r9),%ymm10,%ymm13
188 vpmuludq 160-128(%r9),%ymm10,%ymm12
190 vpmuludq 192-128(%r9),%ymm10,%ymm14
192 vpmuludq 224-128(%r9),%ymm10,%ymm1
193 vpbroadcastq 128-128(%r15),%ymm10
194 vpaddq 320-448(%r12),%ymm1,%ymm1
196 vmovdqu %ymm4,128-192(%rbx)
197 vmovdqu %ymm5,160-192(%rbx)
199 vpmuludq 96-128(%rsi),%ymm11,%ymm12
201 vpmuludq 96-128(%r9),%ymm11,%ymm14
203 vpmuludq 128-128(%r9),%ymm11,%ymm13
205 vpmuludq 160-128(%r9),%ymm11,%ymm12
207 vpmuludq 192-128(%r9),%ymm11,%ymm14
209 vpmuludq 224-128(%r9),%ymm11,%ymm2
210 vpbroadcastq 160-128(%r15),%ymm11
211 vpaddq 352-448(%r12),%ymm2,%ymm2
213 vmovdqu %ymm6,192-192(%rbx)
214 vmovdqu %ymm7,224-192(%rbx)
216 vpmuludq 128-128(%rsi),%ymm10,%ymm12
218 vpmuludq 128-128(%r9),%ymm10,%ymm14
220 vpmuludq 160-128(%r9),%ymm10,%ymm13
222 vpmuludq 192-128(%r9),%ymm10,%ymm12
224 vpmuludq 224-128(%r9),%ymm10,%ymm3
225 vpbroadcastq 192-128(%r15),%ymm10
226 vpaddq 384-448(%r12),%ymm3,%ymm3
228 vmovdqu %ymm8,256-192(%rbx)
229 vmovdqu %ymm0,288-192(%rbx)
232 vpmuludq 160-128(%rsi),%ymm11,%ymm13
234 vpmuludq 160-128(%r9),%ymm11,%ymm12
236 vpmuludq 192-128(%r9),%ymm11,%ymm14
238 vpmuludq 224-128(%r9),%ymm11,%ymm4
239 vpbroadcastq 224-128(%r15),%ymm11
240 vpaddq 416-448(%r12),%ymm4,%ymm4
242 vmovdqu %ymm1,320-448(%r12)
243 vmovdqu %ymm2,352-448(%r12)
245 vpmuludq 192-128(%rsi),%ymm10,%ymm12
247 vpmuludq 192-128(%r9),%ymm10,%ymm14
248 vpbroadcastq 256-128(%r15),%ymm0
250 vpmuludq 224-128(%r9),%ymm10,%ymm5
251 vpbroadcastq 0+8-128(%r15),%ymm10
252 vpaddq 448-448(%r12),%ymm5,%ymm5
254 vmovdqu %ymm3,384-448(%r12)
255 vmovdqu %ymm4,416-448(%r12)
258 vpmuludq 224-128(%rsi),%ymm11,%ymm12
260 vpmuludq 224-128(%r9),%ymm11,%ymm6
261 vpaddq 480-448(%r12),%ymm6,%ymm6
263 vpmuludq 256-128(%rsi),%ymm0,%ymm7
264 vmovdqu %ymm5,448-448(%r12)
265 vpaddq 512-448(%r12),%ymm7,%ymm7
266 vmovdqu %ymm6,480-448(%r12)
267 vmovdqu %ymm7,512-448(%r12)
283 vpermq $0x93,%ymm14,%ymm14
285 vpermq $0x93,%ymm11,%ymm11
293 vmovdqu %ymm1,288-192(%rbx)
294 vmovdqu %ymm2,320-192(%rbx)
301 vmovdqu 64-192(%rbx),%ymm2
302 vmovdqu 96-192(%rbx),%ymm3
303 vmovdqu 128-192(%rbx),%ymm4
304 vmovdqu 160-192(%rbx),%ymm5
305 vmovdqu 192-192(%rbx),%ymm6
306 vmovdqu 224-192(%rbx),%ymm7
310 andl $0x1fffffff,%eax
314 imulq -128(%r13),%rax
318 imulq 8-128(%r13),%rax
322 imulq 16-128(%r13),%rax
325 imulq 24-128(%r13),%rdx
330 andl $0x1fffffff,%eax
340 vpmuludq 32-128(%r13),%ymm12,%ymm10
342 imulq -128(%r13),%rax
345 vpmuludq 64-128(%r13),%ymm12,%ymm14
347 imulq 8-128(%r13),%rax
349 vpmuludq 96-128(%r13),%ymm12,%ymm11
350 .byte 0x67
352 .byte 0x67
354 imulq 16-128(%r13),%rax
357 vpmuludq 128-128(%r13),%ymm12,%ymm10
361 vpmuludq 160-128(%r13),%ymm12,%ymm14
365 vpmuludq 192-128(%r13),%ymm12,%ymm11
366 andl $0x1fffffff,%eax
368 vpmuludq 224-128(%r13),%ymm12,%ymm10
370 vpmuludq 256-128(%r13),%ymm12,%ymm14
377 vpmuludq 32-8-128(%r13),%ymm13,%ymm11
378 vmovdqu 96-8-128(%r13),%ymm14
380 imulq -128(%r13),%rax
382 vpmuludq 64-8-128(%r13),%ymm13,%ymm10
383 vmovdqu 128-8-128(%r13),%ymm11
386 imulq 8-128(%r13),%rax
391 vmovdqu 160-8-128(%r13),%ymm10
395 vmovdqu 192-8-128(%r13),%ymm14
396 .byte 0x67
401 .byte 0xc4,0x41,0x7e,0x6f,0x9d,0x58,0x00,0x00,0x00
402 andl $0x1fffffff,%eax
405 vmovdqu 256-8-128(%r13),%ymm10
408 vmovdqu 288-8-128(%r13),%ymm9
410 imulq -128(%r13),%rax
413 vmovdqu 32-16-128(%r13),%ymm14
417 vmovdqu 64-16-128(%r13),%ymm11
420 vmovdqu 32-24-128(%r13),%ymm13
422 vmovdqu 96-16-128(%r13),%ymm10
426 .byte 0xc4,0x41,0x7e,0x6f,0xb5,0xf0,0xff,0xff,0xff
430 vmovdqu 160-16-128(%r13),%ymm11
431 .byte 0x67
436 vmovdqu 192-16-128(%r13),%ymm10
439 vmovdqu 224-16-128(%r13),%ymm14
442 vmovdqu 256-16-128(%r13),%ymm11
446 vmovdqu 288-16-128(%r13),%ymm10
455 andl $0x1fffffff,%eax
457 vmovdqu 96-24-128(%r13),%ymm11
458 .byte 0x67
462 vpmuludq 64-24-128(%r13),%ymm0,%ymm14
463 vmovdqu 128-24-128(%r13),%ymm10
465 imulq -128(%r13),%rax
469 vmovdqu 160-24-128(%r13),%ymm14
472 imulq 8-128(%r13),%rax
473 .byte 0x67
478 vmovdqu 192-24-128(%r13),%ymm11
481 imulq 16-128(%r13),%rax
484 vmovdqu 224-24-128(%r13),%ymm10
485 imulq 24-128(%r13),%rdx
490 vmovdqu 256-24-128(%r13),%ymm14
495 vmovdqu 288-24-128(%r13),%ymm11
496 andl $0x1fffffff,%eax
512 vpaddq 288-192(%rbx),%ymm0,%ymm0
513 vpaddq 320-448(%r12),%ymm1,%ymm1
514 vpaddq 352-448(%r12),%ymm2,%ymm2
515 vpaddq 384-448(%r12),%ymm3,%ymm3
516 vpaddq 416-448(%r12),%ymm4,%ymm4
517 vpaddq 448-448(%r12),%ymm5,%ymm5
518 vpaddq 480-448(%r12),%ymm6,%ymm6
519 vpaddq 512-448(%r12),%ymm7,%ymm7
520 vpaddq 544-448(%r12),%ymm8,%ymm8
527 vpermq $0x93,%ymm14,%ymm14
530 vpermq $0x93,%ymm11,%ymm11
532 vpermq $0x93,%ymm12,%ymm12
535 vpermq $0x93,%ymm13,%ymm13
551 vpermq $0x93,%ymm14,%ymm14
554 vpermq $0x93,%ymm11,%ymm11
556 vpermq $0x93,%ymm12,%ymm12
559 vpermq $0x93,%ymm13,%ymm13
564 vmovdqu %ymm0,0-128(%rdi)
567 vmovdqu %ymm1,32-128(%rdi)
570 vmovdqu %ymm2,64-128(%rdi)
572 vmovdqu %ymm3,96-128(%rdi)
578 vpermq $0x93,%ymm14,%ymm14
581 vpermq $0x93,%ymm11,%ymm11
584 vpermq $0x93,%ymm12,%ymm12
586 vpermq $0x93,%ymm13,%ymm13
589 vpermq $0x93,%ymm0,%ymm0
605 vpermq $0x93,%ymm14,%ymm14
608 vpermq $0x93,%ymm11,%ymm11
611 vpermq $0x93,%ymm12,%ymm12
613 vpermq $0x93,%ymm13,%ymm13
616 vpermq $0x93,%ymm0,%ymm0
621 vmovdqu %ymm4,128-128(%rdi)
624 vmovdqu %ymm5,160-128(%rdi)
627 vmovdqu %ymm6,192-128(%rdi)
629 vmovdqu %ymm7,224-128(%rdi)
630 vmovdqu %ymm8,256-128(%rdi)
639 movq -48(%rax),%r15
641 movq -40(%rax),%r14
643 movq -32(%rax),%r13
645 movq -24(%rax),%r12
647 movq -16(%rax),%rbp
649 movq -8(%rax),%rbx
654 .byte 0xf3,0xc3
656 .size rsaz_1024_sqr_avx2,.-rsaz_1024_sqr_avx2
665 .cfi_offset %rbx,-16
667 .cfi_offset %rbp,-24
669 .cfi_offset %r12,-32
671 .cfi_offset %r13,-40
673 .cfi_offset %r14,-48
675 .cfi_offset %r15,-56
687 .byte 0x67,0x67
697 subq $-128,%rsi
698 subq $-128,%rcx
699 subq $-128,%rdi
703 .byte 0x67,0x67
712 vmovdqu 0-128(%rcx),%ymm0
713 andq $-512,%rsp
714 vmovdqu 32-128(%rcx),%ymm1
715 vmovdqu 64-128(%rcx),%ymm2
716 vmovdqu 96-128(%rcx),%ymm3
717 vmovdqu 128-128(%rcx),%ymm4
718 vmovdqu 160-128(%rcx),%ymm5
719 vmovdqu 192-128(%rcx),%ymm6
720 vmovdqu 224-128(%rcx),%ymm7
721 vmovdqu 256-128(%rcx),%ymm8
722 leaq 64+128(%rsp),%rcx
723 vmovdqu %ymm0,0-128(%rcx)
725 vmovdqu %ymm1,32-128(%rcx)
727 vmovdqu %ymm2,64-128(%rcx)
729 vmovdqu %ymm3,96-128(%rcx)
731 vmovdqu %ymm4,128-128(%rcx)
733 vmovdqu %ymm5,160-128(%rcx)
735 vmovdqu %ymm6,192-128(%rcx)
737 vmovdqu %ymm7,224-128(%rcx)
739 vmovdqu %ymm8,256-128(%rcx)
741 vmovdqu %ymm9,288-128(%rcx)
743 andq $-64,%rsp
749 .byte 0x67
756 vmovdqu %ymm9,288-128(%rdi)
763 imulq -128(%rsi),%rax
766 imulq 8-128(%rsi),%r10
771 andl $0x1fffffff,%eax
774 imulq 16-128(%rsi),%r11
778 imulq 24-128(%rsi),%r12
780 vpmuludq 32-128(%rsi),%ymm10,%ymm0
783 vpmuludq 64-128(%rsi),%ymm10,%ymm12
786 vpmuludq 96-128(%rsi),%ymm10,%ymm13
789 vpmuludq 128-128(%rsi),%ymm10,%ymm0
791 vpmuludq 160-128(%rsi),%ymm10,%ymm12
793 vpmuludq 192-128(%rsi),%ymm10,%ymm13
795 vpmuludq 224-128(%rsi),%ymm10,%ymm0
796 vpermq $0x93,%ymm9,%ymm9
798 vpmuludq 256-128(%rsi),%ymm10,%ymm12
803 imulq -128(%rcx),%rax
806 imulq 8-128(%rcx),%rax
809 imulq 16-128(%rcx),%rax
812 imulq 24-128(%rcx),%rdx
816 vpmuludq 32-128(%rcx),%ymm11,%ymm13
819 vpmuludq 64-128(%rcx),%ymm11,%ymm0
821 vpmuludq 96-128(%rcx),%ymm11,%ymm12
823 vpmuludq 128-128(%rcx),%ymm11,%ymm13
825 vpmuludq 160-128(%rcx),%ymm11,%ymm0
827 vpmuludq 192-128(%rcx),%ymm11,%ymm12
829 vpmuludq 224-128(%rcx),%ymm11,%ymm13
832 vpmuludq 256-128(%rcx),%ymm11,%ymm0
837 imulq -128(%rsi),%rax
839 vmovdqu -8+32-128(%rsi),%ymm12
841 imulq 8-128(%rsi),%rax
843 vmovdqu -8+64-128(%rsi),%ymm13
846 vpblendd $0xfc,%ymm14,%ymm9,%ymm9
849 andl $0x1fffffff,%eax
851 imulq 16-128(%rsi),%rbx
855 vmovdqu -8+96-128(%rsi),%ymm0
859 vmovdqu -8+128-128(%rsi),%ymm12
862 vmovdqu -8+160-128(%rsi),%ymm13
865 vmovdqu -8+192-128(%rsi),%ymm0
868 vmovdqu -8+224-128(%rsi),%ymm12
871 vmovdqu -8+256-128(%rsi),%ymm13
874 vmovdqu -8+288-128(%rsi),%ymm9
882 imulq -128(%rcx),%rax
884 vmovdqu -8+32-128(%rcx),%ymm0
886 imulq 8-128(%rcx),%rax
888 vmovdqu -8+64-128(%rcx),%ymm12
890 imulq 16-128(%rcx),%rdx
896 vmovdqu -8+96-128(%rcx),%ymm13
899 vmovdqu -8+128-128(%rcx),%ymm0
902 vmovdqu -8+160-128(%rcx),%ymm12
905 vmovdqu -8+192-128(%rcx),%ymm13
908 vmovdqu -8+224-128(%rcx),%ymm0
911 vmovdqu -8+256-128(%rcx),%ymm12
914 vmovdqu -8+288-128(%rcx),%ymm13
921 vmovdqu -16+32-128(%rsi),%ymm0
923 imulq -128(%rsi),%rax
926 vmovdqu -16+64-128(%rsi),%ymm12
929 andl $0x1fffffff,%eax
931 imulq 8-128(%rsi),%rbx
935 vmovdqu -16+96-128(%rsi),%ymm13
939 vmovdqu -16+128-128(%rsi),%ymm0
942 vmovdqu -16+160-128(%rsi),%ymm12
945 vmovdqu -16+192-128(%rsi),%ymm13
948 vmovdqu -16+224-128(%rsi),%ymm0
951 vmovdqu -16+256-128(%rsi),%ymm12
954 vmovdqu -16+288-128(%rsi),%ymm13
962 vmovdqu -16+32-128(%rcx),%ymm0
964 imulq -128(%rcx),%rax
966 vmovdqu -16+64-128(%rcx),%ymm12
967 imulq 8-128(%rcx),%rdx
973 vmovdqu -16+96-128(%rcx),%ymm13
976 vmovdqu -16+128-128(%rcx),%ymm0
979 vmovdqu -16+160-128(%rcx),%ymm12
982 vmovdqu -16+192-128(%rcx),%ymm13
985 vmovdqu -16+224-128(%rcx),%ymm0
988 vmovdqu -16+256-128(%rcx),%ymm12
991 vmovdqu -16+288-128(%rcx),%ymm13
994 vmovdqu -24+32-128(%rsi),%ymm0
997 vmovdqu -24+64-128(%rsi),%ymm12
1001 imulq -128(%rsi),%rbx
1006 andl $0x1fffffff,%eax
1010 vmovdqu -24+96-128(%rsi),%ymm13
1014 vmovdqu -24+128-128(%rsi),%ymm0
1017 vmovdqu -24+160-128(%rsi),%ymm12
1020 vmovdqu -24+192-128(%rsi),%ymm13
1023 vmovdqu -24+224-128(%rsi),%ymm0
1026 vmovdqu -24+256-128(%rsi),%ymm12
1029 vmovdqu -24+288-128(%rsi),%ymm13
1038 vmovdqu -24+32-128(%rcx),%ymm0
1039 imulq -128(%rcx),%rax
1043 vmovdqu -24+64-128(%rcx),%ymm12
1046 vmovdqu -24+96-128(%rcx),%ymm13
1051 vmovdqu -24+128-128(%rcx),%ymm0
1053 vmovdqu -24+160-128(%rcx),%ymm12
1056 vmovdqu -24+192-128(%rcx),%ymm13
1059 vmovdqu -24+224-128(%rcx),%ymm0
1062 vmovdqu -24+256-128(%rcx),%ymm12
1065 vmovdqu -24+288-128(%rcx),%ymm13
1084 vpermq $0x93,%ymm12,%ymm12
1087 vpermq $0x93,%ymm13,%ymm13
1091 vpermq $0x93,%ymm10,%ymm10
1093 vpermq $0x93,%ymm11,%ymm11
1108 vpermq $0x93,%ymm12,%ymm12
1111 vpermq $0x93,%ymm13,%ymm13
1113 vpermq $0x93,%ymm10,%ymm10
1116 vpermq $0x93,%ymm11,%ymm11
1127 vmovdqu %ymm0,0-128(%rdi)
1128 vmovdqu %ymm1,32-128(%rdi)
1129 vmovdqu %ymm2,64-128(%rdi)
1130 vmovdqu %ymm3,96-128(%rdi)
1136 vpermq $0x93,%ymm12,%ymm12
1139 vpermq $0x93,%ymm13,%ymm13
1142 vpermq $0x93,%ymm10,%ymm10
1144 vpermq $0x93,%ymm11,%ymm11
1147 vpermq $0x93,%ymm0,%ymm0
1163 vpermq $0x93,%ymm12,%ymm12
1166 vpermq $0x93,%ymm13,%ymm13
1169 vpermq $0x93,%ymm10,%ymm10
1171 vpermq $0x93,%ymm11,%ymm11
1174 vpermq $0x93,%ymm0,%ymm0
1185 vmovdqu %ymm4,128-128(%rdi)
1186 vmovdqu %ymm5,160-128(%rdi)
1187 vmovdqu %ymm6,192-128(%rdi)
1188 vmovdqu %ymm7,224-128(%rdi)
1189 vmovdqu %ymm8,256-128(%rdi)
1194 movq -48(%rax),%r15
1196 movq -40(%rax),%r14
1198 movq -32(%rax),%r13
1200 movq -24(%rax),%r12
1202 movq -16(%rax),%rbp
1204 movq -8(%rax),%rbx
1209 .byte 0xf3,0xc3
1211 .size rsaz_1024_mul_avx2,.-rsaz_1024_mul_avx2
1217 subq $-128,%rsi
1219 movq -128(%rsi),%r8
1220 movq -120(%rsi),%r9
1221 movq -112(%rsi),%r10
1222 shlq $0,%r8
1230 adcq $0,%r11
1231 movq %rax,0(%rdi)
1233 movq -104(%rsi),%r8
1234 movq -96(%rsi),%r9
1241 adcq $0,%r10
1244 movq -88(%rsi),%r11
1245 movq -80(%rsi),%r8
1252 adcq $0,%r9
1255 movq -72(%rsi),%r10
1256 movq -64(%rsi),%r11
1263 adcq $0,%r8
1266 movq -56(%rsi),%r9
1267 movq -48(%rsi),%r10
1268 movq -40(%rsi),%r11
1277 adcq $0,%r8
1280 movq -32(%rsi),%r9
1281 movq -24(%rsi),%r10
1288 adcq $0,%r11
1291 movq -16(%rsi),%r8
1292 movq -8(%rsi),%r9
1299 adcq $0,%r10
1302 movq 0(%rsi),%r11
1310 adcq $0,%r9
1321 adcq $0,%r8
1335 adcq $0,%r8
1346 adcq $0,%r11
1357 adcq $0,%r10
1368 adcq $0,%r9
1379 adcq $0,%r8
1383 movq 128(%rsi),%r10
1393 adcq $0,%r8
1404 adcq $0,%r11
1407 .byte 0xf3,0xc3
1409 .size rsaz_1024_red2norm_avx2,.-rsaz_1024_red2norm_avx2
1416 subq $-128,%rdi
1418 movl $0x1fffffff,%eax
1421 shrq $0,%r11
1423 movq %r11,-128(%rdi)
1427 movq %r10,-120(%rdi)
1430 movq %r8,-112(%rdi)
1435 movq %r8,-104(%rdi)
1438 movq %r9,-96(%rdi)
1443 movq %r9,-88(%rdi)
1446 movq %r10,-80(%rdi)
1451 movq %r10,-72(%rdi)
1454 movq %r11,-64(%rdi)
1459 movq %r11,-56(%rdi)
1463 movq %r10,-48(%rdi)
1466 movq %r8,-40(%rdi)
1471 movq %r8,-32(%rdi)
1474 movq %r9,-24(%rdi)
1479 movq %r9,-16(%rdi)
1482 movq %r10,-8(%rdi)
1487 movq %r10,0(%rdi)
1551 movq %r8,128(%rdi)
1567 .byte 0xf3,0xc3
1569 .size rsaz_1024_norm2red_avx2,.-rsaz_1024_norm2red_avx2
1593 .byte 0xf3,0xc3
1595 .size rsaz_1024_scatter5_avx2,.-rsaz_1024_scatter5_avx2
1605 leaq -256(%rsp),%rsp
1606 andq $-32,%rsp
1608 leaq -128(%rsp),%rax
1620 vmovdqa %ymm0,0+128(%rax)
1623 vmovdqa %ymm1,32+128(%rax)
1626 vmovdqa %ymm2,64+128(%rax)
1629 vmovdqa %ymm3,96+128(%rax)
1632 vmovdqa %ymm0,128+128(%rax)
1635 vmovdqa %ymm1,160+128(%rax)
1638 vmovdqa %ymm2,192+128(%rax)
1641 vmovdqa %ymm3,224+128(%rax)
1655 vmovdqa -32(%r10),%ymm7
1656 leaq 128(%rsi),%rsi
1660 vmovdqa 0-128(%rsi),%ymm0
1661 vmovdqa 32-128(%rsi),%ymm1
1662 vmovdqa 64-128(%rsi),%ymm2
1663 vmovdqa 96-128(%rsi),%ymm3
1664 vpand 0+128(%rax),%ymm0,%ymm0
1665 vpand 32+128(%rax),%ymm1,%ymm1
1666 vpand 64+128(%rax),%ymm2,%ymm2
1668 vpand 96+128(%rax),%ymm3,%ymm3
1669 vmovdqa 128-128(%rsi),%ymm0
1670 vmovdqa 160-128(%rsi),%ymm1
1672 vmovdqa 192-128(%rsi),%ymm2
1673 vmovdqa 224-128(%rsi),%ymm3
1674 vpand 128+128(%rax),%ymm0,%ymm0
1675 vpand 160+128(%rax),%ymm1,%ymm1
1676 vpand 192+128(%rax),%ymm2,%ymm2
1678 vpand 224+128(%rax),%ymm3,%ymm3
1679 vpand 256-128(%rsi),%ymm8,%ymm0
1681 vpand 288-128(%rsi),%ymm9,%ymm1
1683 vpand 320-128(%rsi),%ymm10,%ymm2
1685 vpand 352-128(%rsi),%ymm11,%ymm3
1687 vpand 384-128(%rsi),%ymm12,%ymm0
1689 vpand 416-128(%rsi),%ymm13,%ymm1
1691 vpand 448-128(%rsi),%ymm14,%ymm2
1693 vpand 480-128(%rsi),%ymm15,%ymm3
1714 .byte 0xf3,0xc3
1717 .size rsaz_1024_gather5_avx2,.-rsaz_1024_gather5_avx2
1725 movl $0,%edx
1731 .byte 0xf3,0xc3
1732 .size rsaz_avx2_eligible,.-rsaz_avx2_eligible
1736 .quad 0x1fffffff,0x1fffffff,0x1fffffff,0x1fffffff
1738 .long 0,2,4,6,7,7,7,7
1740 .long 0,7,1,7,2,7,3,7
1742 .long 0,0,0,0, 1,1,1,1
1748 .long 1f - 0f
1749 .long 4f - 1f
1751 0:
1754 .byte 0x47
1755 .byte 0x4e
1756 .byte 0x55
1757 .byte 0
1760 .long 0xc0000002
1761 .long 3f - 2f