xref: /linux/arch/arm/crypto/curve25519-core.S (revision f8e17c17b81070f38062dce79ca7f4541851dadd)
1/* SPDX-License-Identifier: GPL-2.0 OR MIT */
2/*
3 * Copyright (C) 2015-2019 Jason A. Donenfeld <Jason@zx2c4.com>. All Rights Reserved.
4 *
5 * Based on public domain code from Daniel J. Bernstein and Peter Schwabe. This
6 * began from SUPERCOP's curve25519/neon2/scalarmult.s, but has subsequently been
7 * manually reworked for use in kernel space.
8 */
9
10#include <linux/linkage.h>
11
12.text
13.fpu neon
14.arch armv7-a
15.align 4
16
17ENTRY(curve25519_neon)
18	push		{r4-r11, lr}
19	mov		ip, sp
20	sub		r3, sp, #704
21	and		r3, r3, #0xfffffff0
22	mov		sp, r3
23	movw		r4, #0
24	movw		r5, #254
25	vmov.i32	q0, #1
26	vshr.u64	q1, q0, #7
27	vshr.u64	q0, q0, #8
28	vmov.i32	d4, #19
29	vmov.i32	d5, #38
30	add		r6, sp, #480
31	vst1.8		{d2-d3}, [r6, : 128]!
32	vst1.8		{d0-d1}, [r6, : 128]!
33	vst1.8		{d4-d5}, [r6, : 128]
34	add		r6, r3, #0
35	vmov.i32	q2, #0
36	vst1.8		{d4-d5}, [r6, : 128]!
37	vst1.8		{d4-d5}, [r6, : 128]!
38	vst1.8		d4, [r6, : 64]
39	add		r6, r3, #0
40	movw		r7, #960
41	sub		r7, r7, #2
42	neg		r7, r7
43	sub		r7, r7, r7, LSL #7
44	str		r7, [r6]
45	add		r6, sp, #672
46	vld1.8		{d4-d5}, [r1]!
47	vld1.8		{d6-d7}, [r1]
48	vst1.8		{d4-d5}, [r6, : 128]!
49	vst1.8		{d6-d7}, [r6, : 128]
50	sub		r1, r6, #16
51	ldrb		r6, [r1]
52	and		r6, r6, #248
53	strb		r6, [r1]
54	ldrb		r6, [r1, #31]
55	and		r6, r6, #127
56	orr		r6, r6, #64
57	strb		r6, [r1, #31]
58	vmov.i64	q2, #0xffffffff
59	vshr.u64	q3, q2, #7
60	vshr.u64	q2, q2, #6
61	vld1.8		{d8}, [r2]
62	vld1.8		{d10}, [r2]
63	add		r2, r2, #6
64	vld1.8		{d12}, [r2]
65	vld1.8		{d14}, [r2]
66	add		r2, r2, #6
67	vld1.8		{d16}, [r2]
68	add		r2, r2, #4
69	vld1.8		{d18}, [r2]
70	vld1.8		{d20}, [r2]
71	add		r2, r2, #6
72	vld1.8		{d22}, [r2]
73	add		r2, r2, #2
74	vld1.8		{d24}, [r2]
75	vld1.8		{d26}, [r2]
76	vshr.u64	q5, q5, #26
77	vshr.u64	q6, q6, #3
78	vshr.u64	q7, q7, #29
79	vshr.u64	q8, q8, #6
80	vshr.u64	q10, q10, #25
81	vshr.u64	q11, q11, #3
82	vshr.u64	q12, q12, #12
83	vshr.u64	q13, q13, #38
84	vand		q4, q4, q2
85	vand		q6, q6, q2
86	vand		q8, q8, q2
87	vand		q10, q10, q2
88	vand		q2, q12, q2
89	vand		q5, q5, q3
90	vand		q7, q7, q3
91	vand		q9, q9, q3
92	vand		q11, q11, q3
93	vand		q3, q13, q3
94	add		r2, r3, #48
95	vadd.i64	q12, q4, q1
96	vadd.i64	q13, q10, q1
97	vshr.s64	q12, q12, #26
98	vshr.s64	q13, q13, #26
99	vadd.i64	q5, q5, q12
100	vshl.i64	q12, q12, #26
101	vadd.i64	q14, q5, q0
102	vadd.i64	q11, q11, q13
103	vshl.i64	q13, q13, #26
104	vadd.i64	q15, q11, q0
105	vsub.i64	q4, q4, q12
106	vshr.s64	q12, q14, #25
107	vsub.i64	q10, q10, q13
108	vshr.s64	q13, q15, #25
109	vadd.i64	q6, q6, q12
110	vshl.i64	q12, q12, #25
111	vadd.i64	q14, q6, q1
112	vadd.i64	q2, q2, q13
113	vsub.i64	q5, q5, q12
114	vshr.s64	q12, q14, #26
115	vshl.i64	q13, q13, #25
116	vadd.i64	q14, q2, q1
117	vadd.i64	q7, q7, q12
118	vshl.i64	q12, q12, #26
119	vadd.i64	q15, q7, q0
120	vsub.i64	q11, q11, q13
121	vshr.s64	q13, q14, #26
122	vsub.i64	q6, q6, q12
123	vshr.s64	q12, q15, #25
124	vadd.i64	q3, q3, q13
125	vshl.i64	q13, q13, #26
126	vadd.i64	q14, q3, q0
127	vadd.i64	q8, q8, q12
128	vshl.i64	q12, q12, #25
129	vadd.i64	q15, q8, q1
130	add		r2, r2, #8
131	vsub.i64	q2, q2, q13
132	vshr.s64	q13, q14, #25
133	vsub.i64	q7, q7, q12
134	vshr.s64	q12, q15, #26
135	vadd.i64	q14, q13, q13
136	vadd.i64	q9, q9, q12
137	vtrn.32		d12, d14
138	vshl.i64	q12, q12, #26
139	vtrn.32		d13, d15
140	vadd.i64	q0, q9, q0
141	vadd.i64	q4, q4, q14
142	vst1.8		d12, [r2, : 64]!
143	vshl.i64	q6, q13, #4
144	vsub.i64	q7, q8, q12
145	vshr.s64	q0, q0, #25
146	vadd.i64	q4, q4, q6
147	vadd.i64	q6, q10, q0
148	vshl.i64	q0, q0, #25
149	vadd.i64	q8, q6, q1
150	vadd.i64	q4, q4, q13
151	vshl.i64	q10, q13, #25
152	vadd.i64	q1, q4, q1
153	vsub.i64	q0, q9, q0
154	vshr.s64	q8, q8, #26
155	vsub.i64	q3, q3, q10
156	vtrn.32		d14, d0
157	vshr.s64	q1, q1, #26
158	vtrn.32		d15, d1
159	vadd.i64	q0, q11, q8
160	vst1.8		d14, [r2, : 64]
161	vshl.i64	q7, q8, #26
162	vadd.i64	q5, q5, q1
163	vtrn.32		d4, d6
164	vshl.i64	q1, q1, #26
165	vtrn.32		d5, d7
166	vsub.i64	q3, q6, q7
167	add		r2, r2, #16
168	vsub.i64	q1, q4, q1
169	vst1.8		d4, [r2, : 64]
170	vtrn.32		d6, d0
171	vtrn.32		d7, d1
172	sub		r2, r2, #8
173	vtrn.32		d2, d10
174	vtrn.32		d3, d11
175	vst1.8		d6, [r2, : 64]
176	sub		r2, r2, #24
177	vst1.8		d2, [r2, : 64]
178	add		r2, r3, #96
179	vmov.i32	q0, #0
180	vmov.i64	d2, #0xff
181	vmov.i64	d3, #0
182	vshr.u32	q1, q1, #7
183	vst1.8		{d2-d3}, [r2, : 128]!
184	vst1.8		{d0-d1}, [r2, : 128]!
185	vst1.8		d0, [r2, : 64]
186	add		r2, r3, #144
187	vmov.i32	q0, #0
188	vst1.8		{d0-d1}, [r2, : 128]!
189	vst1.8		{d0-d1}, [r2, : 128]!
190	vst1.8		d0, [r2, : 64]
191	add		r2, r3, #240
192	vmov.i32	q0, #0
193	vmov.i64	d2, #0xff
194	vmov.i64	d3, #0
195	vshr.u32	q1, q1, #7
196	vst1.8		{d2-d3}, [r2, : 128]!
197	vst1.8		{d0-d1}, [r2, : 128]!
198	vst1.8		d0, [r2, : 64]
199	add		r2, r3, #48
200	add		r6, r3, #192
201	vld1.8		{d0-d1}, [r2, : 128]!
202	vld1.8		{d2-d3}, [r2, : 128]!
203	vld1.8		{d4}, [r2, : 64]
204	vst1.8		{d0-d1}, [r6, : 128]!
205	vst1.8		{d2-d3}, [r6, : 128]!
206	vst1.8		d4, [r6, : 64]
207.Lmainloop:
208	mov		r2, r5, LSR #3
209	and		r6, r5, #7
210	ldrb		r2, [r1, r2]
211	mov		r2, r2, LSR r6
212	and		r2, r2, #1
213	str		r5, [sp, #456]
214	eor		r4, r4, r2
215	str		r2, [sp, #460]
216	neg		r2, r4
217	add		r4, r3, #96
218	add		r5, r3, #192
219	add		r6, r3, #144
220	vld1.8		{d8-d9}, [r4, : 128]!
221	add		r7, r3, #240
222	vld1.8		{d10-d11}, [r5, : 128]!
223	veor		q6, q4, q5
224	vld1.8		{d14-d15}, [r6, : 128]!
225	vdup.i32	q8, r2
226	vld1.8		{d18-d19}, [r7, : 128]!
227	veor		q10, q7, q9
228	vld1.8		{d22-d23}, [r4, : 128]!
229	vand		q6, q6, q8
230	vld1.8		{d24-d25}, [r5, : 128]!
231	vand		q10, q10, q8
232	vld1.8		{d26-d27}, [r6, : 128]!
233	veor		q4, q4, q6
234	vld1.8		{d28-d29}, [r7, : 128]!
235	veor		q5, q5, q6
236	vld1.8		{d0}, [r4, : 64]
237	veor		q6, q7, q10
238	vld1.8		{d2}, [r5, : 64]
239	veor		q7, q9, q10
240	vld1.8		{d4}, [r6, : 64]
241	veor		q9, q11, q12
242	vld1.8		{d6}, [r7, : 64]
243	veor		q10, q0, q1
244	sub		r2, r4, #32
245	vand		q9, q9, q8
246	sub		r4, r5, #32
247	vand		q10, q10, q8
248	sub		r5, r6, #32
249	veor		q11, q11, q9
250	sub		r6, r7, #32
251	veor		q0, q0, q10
252	veor		q9, q12, q9
253	veor		q1, q1, q10
254	veor		q10, q13, q14
255	veor		q12, q2, q3
256	vand		q10, q10, q8
257	vand		q8, q12, q8
258	veor		q12, q13, q10
259	veor		q2, q2, q8
260	veor		q10, q14, q10
261	veor		q3, q3, q8
262	vadd.i32	q8, q4, q6
263	vsub.i32	q4, q4, q6
264	vst1.8		{d16-d17}, [r2, : 128]!
265	vadd.i32	q6, q11, q12
266	vst1.8		{d8-d9}, [r5, : 128]!
267	vsub.i32	q4, q11, q12
268	vst1.8		{d12-d13}, [r2, : 128]!
269	vadd.i32	q6, q0, q2
270	vst1.8		{d8-d9}, [r5, : 128]!
271	vsub.i32	q0, q0, q2
272	vst1.8		d12, [r2, : 64]
273	vadd.i32	q2, q5, q7
274	vst1.8		d0, [r5, : 64]
275	vsub.i32	q0, q5, q7
276	vst1.8		{d4-d5}, [r4, : 128]!
277	vadd.i32	q2, q9, q10
278	vst1.8		{d0-d1}, [r6, : 128]!
279	vsub.i32	q0, q9, q10
280	vst1.8		{d4-d5}, [r4, : 128]!
281	vadd.i32	q2, q1, q3
282	vst1.8		{d0-d1}, [r6, : 128]!
283	vsub.i32	q0, q1, q3
284	vst1.8		d4, [r4, : 64]
285	vst1.8		d0, [r6, : 64]
286	add		r2, sp, #512
287	add		r4, r3, #96
288	add		r5, r3, #144
289	vld1.8		{d0-d1}, [r2, : 128]
290	vld1.8		{d2-d3}, [r4, : 128]!
291	vld1.8		{d4-d5}, [r5, : 128]!
292	vzip.i32	q1, q2
293	vld1.8		{d6-d7}, [r4, : 128]!
294	vld1.8		{d8-d9}, [r5, : 128]!
295	vshl.i32	q5, q1, #1
296	vzip.i32	q3, q4
297	vshl.i32	q6, q2, #1
298	vld1.8		{d14}, [r4, : 64]
299	vshl.i32	q8, q3, #1
300	vld1.8		{d15}, [r5, : 64]
301	vshl.i32	q9, q4, #1
302	vmul.i32	d21, d7, d1
303	vtrn.32		d14, d15
304	vmul.i32	q11, q4, q0
305	vmul.i32	q0, q7, q0
306	vmull.s32	q12, d2, d2
307	vmlal.s32	q12, d11, d1
308	vmlal.s32	q12, d12, d0
309	vmlal.s32	q12, d13, d23
310	vmlal.s32	q12, d16, d22
311	vmlal.s32	q12, d7, d21
312	vmull.s32	q10, d2, d11
313	vmlal.s32	q10, d4, d1
314	vmlal.s32	q10, d13, d0
315	vmlal.s32	q10, d6, d23
316	vmlal.s32	q10, d17, d22
317	vmull.s32	q13, d10, d4
318	vmlal.s32	q13, d11, d3
319	vmlal.s32	q13, d13, d1
320	vmlal.s32	q13, d16, d0
321	vmlal.s32	q13, d17, d23
322	vmlal.s32	q13, d8, d22
323	vmull.s32	q1, d10, d5
324	vmlal.s32	q1, d11, d4
325	vmlal.s32	q1, d6, d1
326	vmlal.s32	q1, d17, d0
327	vmlal.s32	q1, d8, d23
328	vmull.s32	q14, d10, d6
329	vmlal.s32	q14, d11, d13
330	vmlal.s32	q14, d4, d4
331	vmlal.s32	q14, d17, d1
332	vmlal.s32	q14, d18, d0
333	vmlal.s32	q14, d9, d23
334	vmull.s32	q11, d10, d7
335	vmlal.s32	q11, d11, d6
336	vmlal.s32	q11, d12, d5
337	vmlal.s32	q11, d8, d1
338	vmlal.s32	q11, d19, d0
339	vmull.s32	q15, d10, d8
340	vmlal.s32	q15, d11, d17
341	vmlal.s32	q15, d12, d6
342	vmlal.s32	q15, d13, d5
343	vmlal.s32	q15, d19, d1
344	vmlal.s32	q15, d14, d0
345	vmull.s32	q2, d10, d9
346	vmlal.s32	q2, d11, d8
347	vmlal.s32	q2, d12, d7
348	vmlal.s32	q2, d13, d6
349	vmlal.s32	q2, d14, d1
350	vmull.s32	q0, d15, d1
351	vmlal.s32	q0, d10, d14
352	vmlal.s32	q0, d11, d19
353	vmlal.s32	q0, d12, d8
354	vmlal.s32	q0, d13, d17
355	vmlal.s32	q0, d6, d6
356	add		r2, sp, #480
357	vld1.8		{d18-d19}, [r2, : 128]!
358	vmull.s32	q3, d16, d7
359	vmlal.s32	q3, d10, d15
360	vmlal.s32	q3, d11, d14
361	vmlal.s32	q3, d12, d9
362	vmlal.s32	q3, d13, d8
363	vld1.8		{d8-d9}, [r2, : 128]
364	vadd.i64	q5, q12, q9
365	vadd.i64	q6, q15, q9
366	vshr.s64	q5, q5, #26
367	vshr.s64	q6, q6, #26
368	vadd.i64	q7, q10, q5
369	vshl.i64	q5, q5, #26
370	vadd.i64	q8, q7, q4
371	vadd.i64	q2, q2, q6
372	vshl.i64	q6, q6, #26
373	vadd.i64	q10, q2, q4
374	vsub.i64	q5, q12, q5
375	vshr.s64	q8, q8, #25
376	vsub.i64	q6, q15, q6
377	vshr.s64	q10, q10, #25
378	vadd.i64	q12, q13, q8
379	vshl.i64	q8, q8, #25
380	vadd.i64	q13, q12, q9
381	vadd.i64	q0, q0, q10
382	vsub.i64	q7, q7, q8
383	vshr.s64	q8, q13, #26
384	vshl.i64	q10, q10, #25
385	vadd.i64	q13, q0, q9
386	vadd.i64	q1, q1, q8
387	vshl.i64	q8, q8, #26
388	vadd.i64	q15, q1, q4
389	vsub.i64	q2, q2, q10
390	vshr.s64	q10, q13, #26
391	vsub.i64	q8, q12, q8
392	vshr.s64	q12, q15, #25
393	vadd.i64	q3, q3, q10
394	vshl.i64	q10, q10, #26
395	vadd.i64	q13, q3, q4
396	vadd.i64	q14, q14, q12
397	add		r2, r3, #288
398	vshl.i64	q12, q12, #25
399	add		r4, r3, #336
400	vadd.i64	q15, q14, q9
401	add		r2, r2, #8
402	vsub.i64	q0, q0, q10
403	add		r4, r4, #8
404	vshr.s64	q10, q13, #25
405	vsub.i64	q1, q1, q12
406	vshr.s64	q12, q15, #26
407	vadd.i64	q13, q10, q10
408	vadd.i64	q11, q11, q12
409	vtrn.32		d16, d2
410	vshl.i64	q12, q12, #26
411	vtrn.32		d17, d3
412	vadd.i64	q1, q11, q4
413	vadd.i64	q4, q5, q13
414	vst1.8		d16, [r2, : 64]!
415	vshl.i64	q5, q10, #4
416	vst1.8		d17, [r4, : 64]!
417	vsub.i64	q8, q14, q12
418	vshr.s64	q1, q1, #25
419	vadd.i64	q4, q4, q5
420	vadd.i64	q5, q6, q1
421	vshl.i64	q1, q1, #25
422	vadd.i64	q6, q5, q9
423	vadd.i64	q4, q4, q10
424	vshl.i64	q10, q10, #25
425	vadd.i64	q9, q4, q9
426	vsub.i64	q1, q11, q1
427	vshr.s64	q6, q6, #26
428	vsub.i64	q3, q3, q10
429	vtrn.32		d16, d2
430	vshr.s64	q9, q9, #26
431	vtrn.32		d17, d3
432	vadd.i64	q1, q2, q6
433	vst1.8		d16, [r2, : 64]
434	vshl.i64	q2, q6, #26
435	vst1.8		d17, [r4, : 64]
436	vadd.i64	q6, q7, q9
437	vtrn.32		d0, d6
438	vshl.i64	q7, q9, #26
439	vtrn.32		d1, d7
440	vsub.i64	q2, q5, q2
441	add		r2, r2, #16
442	vsub.i64	q3, q4, q7
443	vst1.8		d0, [r2, : 64]
444	add		r4, r4, #16
445	vst1.8		d1, [r4, : 64]
446	vtrn.32		d4, d2
447	vtrn.32		d5, d3
448	sub		r2, r2, #8
449	sub		r4, r4, #8
450	vtrn.32		d6, d12
451	vtrn.32		d7, d13
452	vst1.8		d4, [r2, : 64]
453	vst1.8		d5, [r4, : 64]
454	sub		r2, r2, #24
455	sub		r4, r4, #24
456	vst1.8		d6, [r2, : 64]
457	vst1.8		d7, [r4, : 64]
458	add		r2, r3, #240
459	add		r4, r3, #96
460	vld1.8		{d0-d1}, [r4, : 128]!
461	vld1.8		{d2-d3}, [r4, : 128]!
462	vld1.8		{d4}, [r4, : 64]
463	add		r4, r3, #144
464	vld1.8		{d6-d7}, [r4, : 128]!
465	vtrn.32		q0, q3
466	vld1.8		{d8-d9}, [r4, : 128]!
467	vshl.i32	q5, q0, #4
468	vtrn.32		q1, q4
469	vshl.i32	q6, q3, #4
470	vadd.i32	q5, q5, q0
471	vadd.i32	q6, q6, q3
472	vshl.i32	q7, q1, #4
473	vld1.8		{d5}, [r4, : 64]
474	vshl.i32	q8, q4, #4
475	vtrn.32		d4, d5
476	vadd.i32	q7, q7, q1
477	vadd.i32	q8, q8, q4
478	vld1.8		{d18-d19}, [r2, : 128]!
479	vshl.i32	q10, q2, #4
480	vld1.8		{d22-d23}, [r2, : 128]!
481	vadd.i32	q10, q10, q2
482	vld1.8		{d24}, [r2, : 64]
483	vadd.i32	q5, q5, q0
484	add		r2, r3, #192
485	vld1.8		{d26-d27}, [r2, : 128]!
486	vadd.i32	q6, q6, q3
487	vld1.8		{d28-d29}, [r2, : 128]!
488	vadd.i32	q8, q8, q4
489	vld1.8		{d25}, [r2, : 64]
490	vadd.i32	q10, q10, q2
491	vtrn.32		q9, q13
492	vadd.i32	q7, q7, q1
493	vadd.i32	q5, q5, q0
494	vtrn.32		q11, q14
495	vadd.i32	q6, q6, q3
496	add		r2, sp, #528
497	vadd.i32	q10, q10, q2
498	vtrn.32		d24, d25
499	vst1.8		{d12-d13}, [r2, : 128]!
500	vshl.i32	q6, q13, #1
501	vst1.8		{d20-d21}, [r2, : 128]!
502	vshl.i32	q10, q14, #1
503	vst1.8		{d12-d13}, [r2, : 128]!
504	vshl.i32	q15, q12, #1
505	vadd.i32	q8, q8, q4
506	vext.32		d10, d31, d30, #0
507	vadd.i32	q7, q7, q1
508	vst1.8		{d16-d17}, [r2, : 128]!
509	vmull.s32	q8, d18, d5
510	vmlal.s32	q8, d26, d4
511	vmlal.s32	q8, d19, d9
512	vmlal.s32	q8, d27, d3
513	vmlal.s32	q8, d22, d8
514	vmlal.s32	q8, d28, d2
515	vmlal.s32	q8, d23, d7
516	vmlal.s32	q8, d29, d1
517	vmlal.s32	q8, d24, d6
518	vmlal.s32	q8, d25, d0
519	vst1.8		{d14-d15}, [r2, : 128]!
520	vmull.s32	q2, d18, d4
521	vmlal.s32	q2, d12, d9
522	vmlal.s32	q2, d13, d8
523	vmlal.s32	q2, d19, d3
524	vmlal.s32	q2, d22, d2
525	vmlal.s32	q2, d23, d1
526	vmlal.s32	q2, d24, d0
527	vst1.8		{d20-d21}, [r2, : 128]!
528	vmull.s32	q7, d18, d9
529	vmlal.s32	q7, d26, d3
530	vmlal.s32	q7, d19, d8
531	vmlal.s32	q7, d27, d2
532	vmlal.s32	q7, d22, d7
533	vmlal.s32	q7, d28, d1
534	vmlal.s32	q7, d23, d6
535	vmlal.s32	q7, d29, d0
536	vst1.8		{d10-d11}, [r2, : 128]!
537	vmull.s32	q5, d18, d3
538	vmlal.s32	q5, d19, d2
539	vmlal.s32	q5, d22, d1
540	vmlal.s32	q5, d23, d0
541	vmlal.s32	q5, d12, d8
542	vst1.8		{d16-d17}, [r2, : 128]
543	vmull.s32	q4, d18, d8
544	vmlal.s32	q4, d26, d2
545	vmlal.s32	q4, d19, d7
546	vmlal.s32	q4, d27, d1
547	vmlal.s32	q4, d22, d6
548	vmlal.s32	q4, d28, d0
549	vmull.s32	q8, d18, d7
550	vmlal.s32	q8, d26, d1
551	vmlal.s32	q8, d19, d6
552	vmlal.s32	q8, d27, d0
553	add		r2, sp, #544
554	vld1.8		{d20-d21}, [r2, : 128]
555	vmlal.s32	q7, d24, d21
556	vmlal.s32	q7, d25, d20
557	vmlal.s32	q4, d23, d21
558	vmlal.s32	q4, d29, d20
559	vmlal.s32	q8, d22, d21
560	vmlal.s32	q8, d28, d20
561	vmlal.s32	q5, d24, d20
562	vst1.8		{d14-d15}, [r2, : 128]
563	vmull.s32	q7, d18, d6
564	vmlal.s32	q7, d26, d0
565	add		r2, sp, #624
566	vld1.8		{d30-d31}, [r2, : 128]
567	vmlal.s32	q2, d30, d21
568	vmlal.s32	q7, d19, d21
569	vmlal.s32	q7, d27, d20
570	add		r2, sp, #592
571	vld1.8		{d26-d27}, [r2, : 128]
572	vmlal.s32	q4, d25, d27
573	vmlal.s32	q8, d29, d27
574	vmlal.s32	q8, d25, d26
575	vmlal.s32	q7, d28, d27
576	vmlal.s32	q7, d29, d26
577	add		r2, sp, #576
578	vld1.8		{d28-d29}, [r2, : 128]
579	vmlal.s32	q4, d24, d29
580	vmlal.s32	q8, d23, d29
581	vmlal.s32	q8, d24, d28
582	vmlal.s32	q7, d22, d29
583	vmlal.s32	q7, d23, d28
584	vst1.8		{d8-d9}, [r2, : 128]
585	add		r2, sp, #528
586	vld1.8		{d8-d9}, [r2, : 128]
587	vmlal.s32	q7, d24, d9
588	vmlal.s32	q7, d25, d31
589	vmull.s32	q1, d18, d2
590	vmlal.s32	q1, d19, d1
591	vmlal.s32	q1, d22, d0
592	vmlal.s32	q1, d24, d27
593	vmlal.s32	q1, d23, d20
594	vmlal.s32	q1, d12, d7
595	vmlal.s32	q1, d13, d6
596	vmull.s32	q6, d18, d1
597	vmlal.s32	q6, d19, d0
598	vmlal.s32	q6, d23, d27
599	vmlal.s32	q6, d22, d20
600	vmlal.s32	q6, d24, d26
601	vmull.s32	q0, d18, d0
602	vmlal.s32	q0, d22, d27
603	vmlal.s32	q0, d23, d26
604	vmlal.s32	q0, d24, d31
605	vmlal.s32	q0, d19, d20
606	add		r2, sp, #608
607	vld1.8		{d18-d19}, [r2, : 128]
608	vmlal.s32	q2, d18, d7
609	vmlal.s32	q5, d18, d6
610	vmlal.s32	q1, d18, d21
611	vmlal.s32	q0, d18, d28
612	vmlal.s32	q6, d18, d29
613	vmlal.s32	q2, d19, d6
614	vmlal.s32	q5, d19, d21
615	vmlal.s32	q1, d19, d29
616	vmlal.s32	q0, d19, d9
617	vmlal.s32	q6, d19, d28
618	add		r2, sp, #560
619	vld1.8		{d18-d19}, [r2, : 128]
620	add		r2, sp, #480
621	vld1.8		{d22-d23}, [r2, : 128]
622	vmlal.s32	q5, d19, d7
623	vmlal.s32	q0, d18, d21
624	vmlal.s32	q0, d19, d29
625	vmlal.s32	q6, d18, d6
626	add		r2, sp, #496
627	vld1.8		{d6-d7}, [r2, : 128]
628	vmlal.s32	q6, d19, d21
629	add		r2, sp, #544
630	vld1.8		{d18-d19}, [r2, : 128]
631	vmlal.s32	q0, d30, d8
632	add		r2, sp, #640
633	vld1.8		{d20-d21}, [r2, : 128]
634	vmlal.s32	q5, d30, d29
635	add		r2, sp, #576
636	vld1.8		{d24-d25}, [r2, : 128]
637	vmlal.s32	q1, d30, d28
638	vadd.i64	q13, q0, q11
639	vadd.i64	q14, q5, q11
640	vmlal.s32	q6, d30, d9
641	vshr.s64	q4, q13, #26
642	vshr.s64	q13, q14, #26
643	vadd.i64	q7, q7, q4
644	vshl.i64	q4, q4, #26
645	vadd.i64	q14, q7, q3
646	vadd.i64	q9, q9, q13
647	vshl.i64	q13, q13, #26
648	vadd.i64	q15, q9, q3
649	vsub.i64	q0, q0, q4
650	vshr.s64	q4, q14, #25
651	vsub.i64	q5, q5, q13
652	vshr.s64	q13, q15, #25
653	vadd.i64	q6, q6, q4
654	vshl.i64	q4, q4, #25
655	vadd.i64	q14, q6, q11
656	vadd.i64	q2, q2, q13
657	vsub.i64	q4, q7, q4
658	vshr.s64	q7, q14, #26
659	vshl.i64	q13, q13, #25
660	vadd.i64	q14, q2, q11
661	vadd.i64	q8, q8, q7
662	vshl.i64	q7, q7, #26
663	vadd.i64	q15, q8, q3
664	vsub.i64	q9, q9, q13
665	vshr.s64	q13, q14, #26
666	vsub.i64	q6, q6, q7
667	vshr.s64	q7, q15, #25
668	vadd.i64	q10, q10, q13
669	vshl.i64	q13, q13, #26
670	vadd.i64	q14, q10, q3
671	vadd.i64	q1, q1, q7
672	add		r2, r3, #144
673	vshl.i64	q7, q7, #25
674	add		r4, r3, #96
675	vadd.i64	q15, q1, q11
676	add		r2, r2, #8
677	vsub.i64	q2, q2, q13
678	add		r4, r4, #8
679	vshr.s64	q13, q14, #25
680	vsub.i64	q7, q8, q7
681	vshr.s64	q8, q15, #26
682	vadd.i64	q14, q13, q13
683	vadd.i64	q12, q12, q8
684	vtrn.32		d12, d14
685	vshl.i64	q8, q8, #26
686	vtrn.32		d13, d15
687	vadd.i64	q3, q12, q3
688	vadd.i64	q0, q0, q14
689	vst1.8		d12, [r2, : 64]!
690	vshl.i64	q7, q13, #4
691	vst1.8		d13, [r4, : 64]!
692	vsub.i64	q1, q1, q8
693	vshr.s64	q3, q3, #25
694	vadd.i64	q0, q0, q7
695	vadd.i64	q5, q5, q3
696	vshl.i64	q3, q3, #25
697	vadd.i64	q6, q5, q11
698	vadd.i64	q0, q0, q13
699	vshl.i64	q7, q13, #25
700	vadd.i64	q8, q0, q11
701	vsub.i64	q3, q12, q3
702	vshr.s64	q6, q6, #26
703	vsub.i64	q7, q10, q7
704	vtrn.32		d2, d6
705	vshr.s64	q8, q8, #26
706	vtrn.32		d3, d7
707	vadd.i64	q3, q9, q6
708	vst1.8		d2, [r2, : 64]
709	vshl.i64	q6, q6, #26
710	vst1.8		d3, [r4, : 64]
711	vadd.i64	q1, q4, q8
712	vtrn.32		d4, d14
713	vshl.i64	q4, q8, #26
714	vtrn.32		d5, d15
715	vsub.i64	q5, q5, q6
716	add		r2, r2, #16
717	vsub.i64	q0, q0, q4
718	vst1.8		d4, [r2, : 64]
719	add		r4, r4, #16
720	vst1.8		d5, [r4, : 64]
721	vtrn.32		d10, d6
722	vtrn.32		d11, d7
723	sub		r2, r2, #8
724	sub		r4, r4, #8
725	vtrn.32		d0, d2
726	vtrn.32		d1, d3
727	vst1.8		d10, [r2, : 64]
728	vst1.8		d11, [r4, : 64]
729	sub		r2, r2, #24
730	sub		r4, r4, #24
731	vst1.8		d0, [r2, : 64]
732	vst1.8		d1, [r4, : 64]
733	add		r2, r3, #288
734	add		r4, r3, #336
735	vld1.8		{d0-d1}, [r2, : 128]!
736	vld1.8		{d2-d3}, [r4, : 128]!
737	vsub.i32	q0, q0, q1
738	vld1.8		{d2-d3}, [r2, : 128]!
739	vld1.8		{d4-d5}, [r4, : 128]!
740	vsub.i32	q1, q1, q2
741	add		r5, r3, #240
742	vld1.8		{d4}, [r2, : 64]
743	vld1.8		{d6}, [r4, : 64]
744	vsub.i32	q2, q2, q3
745	vst1.8		{d0-d1}, [r5, : 128]!
746	vst1.8		{d2-d3}, [r5, : 128]!
747	vst1.8		d4, [r5, : 64]
748	add		r2, r3, #144
749	add		r4, r3, #96
750	add		r5, r3, #144
751	add		r6, r3, #192
752	vld1.8		{d0-d1}, [r2, : 128]!
753	vld1.8		{d2-d3}, [r4, : 128]!
754	vsub.i32	q2, q0, q1
755	vadd.i32	q0, q0, q1
756	vld1.8		{d2-d3}, [r2, : 128]!
757	vld1.8		{d6-d7}, [r4, : 128]!
758	vsub.i32	q4, q1, q3
759	vadd.i32	q1, q1, q3
760	vld1.8		{d6}, [r2, : 64]
761	vld1.8		{d10}, [r4, : 64]
762	vsub.i32	q6, q3, q5
763	vadd.i32	q3, q3, q5
764	vst1.8		{d4-d5}, [r5, : 128]!
765	vst1.8		{d0-d1}, [r6, : 128]!
766	vst1.8		{d8-d9}, [r5, : 128]!
767	vst1.8		{d2-d3}, [r6, : 128]!
768	vst1.8		d12, [r5, : 64]
769	vst1.8		d6, [r6, : 64]
770	add		r2, r3, #0
771	add		r4, r3, #240
772	vld1.8		{d0-d1}, [r4, : 128]!
773	vld1.8		{d2-d3}, [r4, : 128]!
774	vld1.8		{d4}, [r4, : 64]
775	add		r4, r3, #336
776	vld1.8		{d6-d7}, [r4, : 128]!
777	vtrn.32		q0, q3
778	vld1.8		{d8-d9}, [r4, : 128]!
779	vshl.i32	q5, q0, #4
780	vtrn.32		q1, q4
781	vshl.i32	q6, q3, #4
782	vadd.i32	q5, q5, q0
783	vadd.i32	q6, q6, q3
784	vshl.i32	q7, q1, #4
785	vld1.8		{d5}, [r4, : 64]
786	vshl.i32	q8, q4, #4
787	vtrn.32		d4, d5
788	vadd.i32	q7, q7, q1
789	vadd.i32	q8, q8, q4
790	vld1.8		{d18-d19}, [r2, : 128]!
791	vshl.i32	q10, q2, #4
792	vld1.8		{d22-d23}, [r2, : 128]!
793	vadd.i32	q10, q10, q2
794	vld1.8		{d24}, [r2, : 64]
795	vadd.i32	q5, q5, q0
796	add		r2, r3, #288
797	vld1.8		{d26-d27}, [r2, : 128]!
798	vadd.i32	q6, q6, q3
799	vld1.8		{d28-d29}, [r2, : 128]!
800	vadd.i32	q8, q8, q4
801	vld1.8		{d25}, [r2, : 64]
802	vadd.i32	q10, q10, q2
803	vtrn.32		q9, q13
804	vadd.i32	q7, q7, q1
805	vadd.i32	q5, q5, q0
806	vtrn.32		q11, q14
807	vadd.i32	q6, q6, q3
808	add		r2, sp, #528
809	vadd.i32	q10, q10, q2
810	vtrn.32		d24, d25
811	vst1.8		{d12-d13}, [r2, : 128]!
812	vshl.i32	q6, q13, #1
813	vst1.8		{d20-d21}, [r2, : 128]!
814	vshl.i32	q10, q14, #1
815	vst1.8		{d12-d13}, [r2, : 128]!
816	vshl.i32	q15, q12, #1
817	vadd.i32	q8, q8, q4
818	vext.32		d10, d31, d30, #0
819	vadd.i32	q7, q7, q1
820	vst1.8		{d16-d17}, [r2, : 128]!
821	vmull.s32	q8, d18, d5
822	vmlal.s32	q8, d26, d4
823	vmlal.s32	q8, d19, d9
824	vmlal.s32	q8, d27, d3
825	vmlal.s32	q8, d22, d8
826	vmlal.s32	q8, d28, d2
827	vmlal.s32	q8, d23, d7
828	vmlal.s32	q8, d29, d1
829	vmlal.s32	q8, d24, d6
830	vmlal.s32	q8, d25, d0
831	vst1.8		{d14-d15}, [r2, : 128]!
832	vmull.s32	q2, d18, d4
833	vmlal.s32	q2, d12, d9
834	vmlal.s32	q2, d13, d8
835	vmlal.s32	q2, d19, d3
836	vmlal.s32	q2, d22, d2
837	vmlal.s32	q2, d23, d1
838	vmlal.s32	q2, d24, d0
839	vst1.8		{d20-d21}, [r2, : 128]!
840	vmull.s32	q7, d18, d9
841	vmlal.s32	q7, d26, d3
842	vmlal.s32	q7, d19, d8
843	vmlal.s32	q7, d27, d2
844	vmlal.s32	q7, d22, d7
845	vmlal.s32	q7, d28, d1
846	vmlal.s32	q7, d23, d6
847	vmlal.s32	q7, d29, d0
848	vst1.8		{d10-d11}, [r2, : 128]!
849	vmull.s32	q5, d18, d3
850	vmlal.s32	q5, d19, d2
851	vmlal.s32	q5, d22, d1
852	vmlal.s32	q5, d23, d0
853	vmlal.s32	q5, d12, d8
854	vst1.8		{d16-d17}, [r2, : 128]!
855	vmull.s32	q4, d18, d8
856	vmlal.s32	q4, d26, d2
857	vmlal.s32	q4, d19, d7
858	vmlal.s32	q4, d27, d1
859	vmlal.s32	q4, d22, d6
860	vmlal.s32	q4, d28, d0
861	vmull.s32	q8, d18, d7
862	vmlal.s32	q8, d26, d1
863	vmlal.s32	q8, d19, d6
864	vmlal.s32	q8, d27, d0
865	add		r2, sp, #544
866	vld1.8		{d20-d21}, [r2, : 128]
867	vmlal.s32	q7, d24, d21
868	vmlal.s32	q7, d25, d20
869	vmlal.s32	q4, d23, d21
870	vmlal.s32	q4, d29, d20
871	vmlal.s32	q8, d22, d21
872	vmlal.s32	q8, d28, d20
873	vmlal.s32	q5, d24, d20
874	vst1.8		{d14-d15}, [r2, : 128]
875	vmull.s32	q7, d18, d6
876	vmlal.s32	q7, d26, d0
877	add		r2, sp, #624
878	vld1.8		{d30-d31}, [r2, : 128]
879	vmlal.s32	q2, d30, d21
880	vmlal.s32	q7, d19, d21
881	vmlal.s32	q7, d27, d20
882	add		r2, sp, #592
883	vld1.8		{d26-d27}, [r2, : 128]
884	vmlal.s32	q4, d25, d27
885	vmlal.s32	q8, d29, d27
886	vmlal.s32	q8, d25, d26
887	vmlal.s32	q7, d28, d27
888	vmlal.s32	q7, d29, d26
889	add		r2, sp, #576
890	vld1.8		{d28-d29}, [r2, : 128]
891	vmlal.s32	q4, d24, d29
892	vmlal.s32	q8, d23, d29
893	vmlal.s32	q8, d24, d28
894	vmlal.s32	q7, d22, d29
895	vmlal.s32	q7, d23, d28
896	vst1.8		{d8-d9}, [r2, : 128]
897	add		r2, sp, #528
898	vld1.8		{d8-d9}, [r2, : 128]
899	vmlal.s32	q7, d24, d9
900	vmlal.s32	q7, d25, d31
901	vmull.s32	q1, d18, d2
902	vmlal.s32	q1, d19, d1
903	vmlal.s32	q1, d22, d0
904	vmlal.s32	q1, d24, d27
905	vmlal.s32	q1, d23, d20
906	vmlal.s32	q1, d12, d7
907	vmlal.s32	q1, d13, d6
908	vmull.s32	q6, d18, d1
909	vmlal.s32	q6, d19, d0
910	vmlal.s32	q6, d23, d27
911	vmlal.s32	q6, d22, d20
912	vmlal.s32	q6, d24, d26
913	vmull.s32	q0, d18, d0
914	vmlal.s32	q0, d22, d27
915	vmlal.s32	q0, d23, d26
916	vmlal.s32	q0, d24, d31
917	vmlal.s32	q0, d19, d20
918	add		r2, sp, #608
919	vld1.8		{d18-d19}, [r2, : 128]
920	vmlal.s32	q2, d18, d7
921	vmlal.s32	q5, d18, d6
922	vmlal.s32	q1, d18, d21
923	vmlal.s32	q0, d18, d28
924	vmlal.s32	q6, d18, d29
925	vmlal.s32	q2, d19, d6
926	vmlal.s32	q5, d19, d21
927	vmlal.s32	q1, d19, d29
928	vmlal.s32	q0, d19, d9
929	vmlal.s32	q6, d19, d28
930	add		r2, sp, #560
931	vld1.8		{d18-d19}, [r2, : 128]
932	add		r2, sp, #480
933	vld1.8		{d22-d23}, [r2, : 128]
934	vmlal.s32	q5, d19, d7
935	vmlal.s32	q0, d18, d21
936	vmlal.s32	q0, d19, d29
937	vmlal.s32	q6, d18, d6
938	add		r2, sp, #496
939	vld1.8		{d6-d7}, [r2, : 128]
940	vmlal.s32	q6, d19, d21
941	add		r2, sp, #544
942	vld1.8		{d18-d19}, [r2, : 128]
943	vmlal.s32	q0, d30, d8
944	add		r2, sp, #640
945	vld1.8		{d20-d21}, [r2, : 128]
946	vmlal.s32	q5, d30, d29
947	add		r2, sp, #576
948	vld1.8		{d24-d25}, [r2, : 128]
949	vmlal.s32	q1, d30, d28
950	vadd.i64	q13, q0, q11
951	vadd.i64	q14, q5, q11
952	vmlal.s32	q6, d30, d9
953	vshr.s64	q4, q13, #26
954	vshr.s64	q13, q14, #26
955	vadd.i64	q7, q7, q4
956	vshl.i64	q4, q4, #26
957	vadd.i64	q14, q7, q3
958	vadd.i64	q9, q9, q13
959	vshl.i64	q13, q13, #26
960	vadd.i64	q15, q9, q3
961	vsub.i64	q0, q0, q4
962	vshr.s64	q4, q14, #25
963	vsub.i64	q5, q5, q13
964	vshr.s64	q13, q15, #25
965	vadd.i64	q6, q6, q4
966	vshl.i64	q4, q4, #25
967	vadd.i64	q14, q6, q11
968	vadd.i64	q2, q2, q13
969	vsub.i64	q4, q7, q4
970	vshr.s64	q7, q14, #26
971	vshl.i64	q13, q13, #25
972	vadd.i64	q14, q2, q11
973	vadd.i64	q8, q8, q7
974	vshl.i64	q7, q7, #26
975	vadd.i64	q15, q8, q3
976	vsub.i64	q9, q9, q13
977	vshr.s64	q13, q14, #26
978	vsub.i64	q6, q6, q7
979	vshr.s64	q7, q15, #25
980	vadd.i64	q10, q10, q13
981	vshl.i64	q13, q13, #26
982	vadd.i64	q14, q10, q3
983	vadd.i64	q1, q1, q7
984	add		r2, r3, #288
985	vshl.i64	q7, q7, #25
986	add		r4, r3, #96
987	vadd.i64	q15, q1, q11
988	add		r2, r2, #8
989	vsub.i64	q2, q2, q13
990	add		r4, r4, #8
991	vshr.s64	q13, q14, #25
992	vsub.i64	q7, q8, q7
993	vshr.s64	q8, q15, #26
994	vadd.i64	q14, q13, q13
995	vadd.i64	q12, q12, q8
996	vtrn.32		d12, d14
997	vshl.i64	q8, q8, #26
998	vtrn.32		d13, d15
999	vadd.i64	q3, q12, q3
1000	vadd.i64	q0, q0, q14
1001	vst1.8		d12, [r2, : 64]!
1002	vshl.i64	q7, q13, #4
1003	vst1.8		d13, [r4, : 64]!
1004	vsub.i64	q1, q1, q8
1005	vshr.s64	q3, q3, #25
1006	vadd.i64	q0, q0, q7
1007	vadd.i64	q5, q5, q3
1008	vshl.i64	q3, q3, #25
1009	vadd.i64	q6, q5, q11
1010	vadd.i64	q0, q0, q13
1011	vshl.i64	q7, q13, #25
1012	vadd.i64	q8, q0, q11
1013	vsub.i64	q3, q12, q3
1014	vshr.s64	q6, q6, #26
1015	vsub.i64	q7, q10, q7
1016	vtrn.32		d2, d6
1017	vshr.s64	q8, q8, #26
1018	vtrn.32		d3, d7
1019	vadd.i64	q3, q9, q6
1020	vst1.8		d2, [r2, : 64]
1021	vshl.i64	q6, q6, #26
1022	vst1.8		d3, [r4, : 64]
1023	vadd.i64	q1, q4, q8
1024	vtrn.32		d4, d14
1025	vshl.i64	q4, q8, #26
1026	vtrn.32		d5, d15
1027	vsub.i64	q5, q5, q6
1028	add		r2, r2, #16
1029	vsub.i64	q0, q0, q4
1030	vst1.8		d4, [r2, : 64]
1031	add		r4, r4, #16
1032	vst1.8		d5, [r4, : 64]
1033	vtrn.32		d10, d6
1034	vtrn.32		d11, d7
1035	sub		r2, r2, #8
1036	sub		r4, r4, #8
1037	vtrn.32		d0, d2
1038	vtrn.32		d1, d3
1039	vst1.8		d10, [r2, : 64]
1040	vst1.8		d11, [r4, : 64]
1041	sub		r2, r2, #24
1042	sub		r4, r4, #24
1043	vst1.8		d0, [r2, : 64]
1044	vst1.8		d1, [r4, : 64]
1045	add		r2, sp, #512
1046	add		r4, r3, #144
1047	add		r5, r3, #192
1048	vld1.8		{d0-d1}, [r2, : 128]
1049	vld1.8		{d2-d3}, [r4, : 128]!
1050	vld1.8		{d4-d5}, [r5, : 128]!
1051	vzip.i32	q1, q2
1052	vld1.8		{d6-d7}, [r4, : 128]!
1053	vld1.8		{d8-d9}, [r5, : 128]!
1054	vshl.i32	q5, q1, #1
1055	vzip.i32	q3, q4
1056	vshl.i32	q6, q2, #1
1057	vld1.8		{d14}, [r4, : 64]
1058	vshl.i32	q8, q3, #1
1059	vld1.8		{d15}, [r5, : 64]
1060	vshl.i32	q9, q4, #1
1061	vmul.i32	d21, d7, d1
1062	vtrn.32		d14, d15
1063	vmul.i32	q11, q4, q0
1064	vmul.i32	q0, q7, q0
1065	vmull.s32	q12, d2, d2
1066	vmlal.s32	q12, d11, d1
1067	vmlal.s32	q12, d12, d0
1068	vmlal.s32	q12, d13, d23
1069	vmlal.s32	q12, d16, d22
1070	vmlal.s32	q12, d7, d21
1071	vmull.s32	q10, d2, d11
1072	vmlal.s32	q10, d4, d1
1073	vmlal.s32	q10, d13, d0
1074	vmlal.s32	q10, d6, d23
1075	vmlal.s32	q10, d17, d22
1076	vmull.s32	q13, d10, d4
1077	vmlal.s32	q13, d11, d3
1078	vmlal.s32	q13, d13, d1
1079	vmlal.s32	q13, d16, d0
1080	vmlal.s32	q13, d17, d23
1081	vmlal.s32	q13, d8, d22
1082	vmull.s32	q1, d10, d5
1083	vmlal.s32	q1, d11, d4
1084	vmlal.s32	q1, d6, d1
1085	vmlal.s32	q1, d17, d0
1086	vmlal.s32	q1, d8, d23
1087	vmull.s32	q14, d10, d6
1088	vmlal.s32	q14, d11, d13
1089	vmlal.s32	q14, d4, d4
1090	vmlal.s32	q14, d17, d1
1091	vmlal.s32	q14, d18, d0
1092	vmlal.s32	q14, d9, d23
1093	vmull.s32	q11, d10, d7
1094	vmlal.s32	q11, d11, d6
1095	vmlal.s32	q11, d12, d5
1096	vmlal.s32	q11, d8, d1
1097	vmlal.s32	q11, d19, d0
1098	vmull.s32	q15, d10, d8
1099	vmlal.s32	q15, d11, d17
1100	vmlal.s32	q15, d12, d6
1101	vmlal.s32	q15, d13, d5
1102	vmlal.s32	q15, d19, d1
1103	vmlal.s32	q15, d14, d0
1104	vmull.s32	q2, d10, d9
1105	vmlal.s32	q2, d11, d8
1106	vmlal.s32	q2, d12, d7
1107	vmlal.s32	q2, d13, d6
1108	vmlal.s32	q2, d14, d1
1109	vmull.s32	q0, d15, d1
1110	vmlal.s32	q0, d10, d14
1111	vmlal.s32	q0, d11, d19
1112	vmlal.s32	q0, d12, d8
1113	vmlal.s32	q0, d13, d17
1114	vmlal.s32	q0, d6, d6
1115	add		r2, sp, #480
1116	vld1.8		{d18-d19}, [r2, : 128]!
1117	vmull.s32	q3, d16, d7
1118	vmlal.s32	q3, d10, d15
1119	vmlal.s32	q3, d11, d14
1120	vmlal.s32	q3, d12, d9
1121	vmlal.s32	q3, d13, d8
1122	vld1.8		{d8-d9}, [r2, : 128]
1123	vadd.i64	q5, q12, q9
1124	vadd.i64	q6, q15, q9
1125	vshr.s64	q5, q5, #26
1126	vshr.s64	q6, q6, #26
1127	vadd.i64	q7, q10, q5
1128	vshl.i64	q5, q5, #26
1129	vadd.i64	q8, q7, q4
1130	vadd.i64	q2, q2, q6
1131	vshl.i64	q6, q6, #26
1132	vadd.i64	q10, q2, q4
1133	vsub.i64	q5, q12, q5
1134	vshr.s64	q8, q8, #25
1135	vsub.i64	q6, q15, q6
1136	vshr.s64	q10, q10, #25
1137	vadd.i64	q12, q13, q8
1138	vshl.i64	q8, q8, #25
1139	vadd.i64	q13, q12, q9
1140	vadd.i64	q0, q0, q10
1141	vsub.i64	q7, q7, q8
1142	vshr.s64	q8, q13, #26
1143	vshl.i64	q10, q10, #25
1144	vadd.i64	q13, q0, q9
1145	vadd.i64	q1, q1, q8
1146	vshl.i64	q8, q8, #26
1147	vadd.i64	q15, q1, q4
1148	vsub.i64	q2, q2, q10
1149	vshr.s64	q10, q13, #26
1150	vsub.i64	q8, q12, q8
1151	vshr.s64	q12, q15, #25
1152	vadd.i64	q3, q3, q10
1153	vshl.i64	q10, q10, #26
1154	vadd.i64	q13, q3, q4
1155	vadd.i64	q14, q14, q12
1156	add		r2, r3, #144
1157	vshl.i64	q12, q12, #25
1158	add		r4, r3, #192
1159	vadd.i64	q15, q14, q9
1160	add		r2, r2, #8
1161	vsub.i64	q0, q0, q10
1162	add		r4, r4, #8
1163	vshr.s64	q10, q13, #25
1164	vsub.i64	q1, q1, q12
1165	vshr.s64	q12, q15, #26
1166	vadd.i64	q13, q10, q10
1167	vadd.i64	q11, q11, q12
1168	vtrn.32		d16, d2
1169	vshl.i64	q12, q12, #26
1170	vtrn.32		d17, d3
1171	vadd.i64	q1, q11, q4
1172	vadd.i64	q4, q5, q13
1173	vst1.8		d16, [r2, : 64]!
1174	vshl.i64	q5, q10, #4
1175	vst1.8		d17, [r4, : 64]!
1176	vsub.i64	q8, q14, q12
1177	vshr.s64	q1, q1, #25
1178	vadd.i64	q4, q4, q5
1179	vadd.i64	q5, q6, q1
1180	vshl.i64	q1, q1, #25
1181	vadd.i64	q6, q5, q9
1182	vadd.i64	q4, q4, q10
1183	vshl.i64	q10, q10, #25
1184	vadd.i64	q9, q4, q9
1185	vsub.i64	q1, q11, q1
1186	vshr.s64	q6, q6, #26
1187	vsub.i64	q3, q3, q10
1188	vtrn.32		d16, d2
1189	vshr.s64	q9, q9, #26
1190	vtrn.32		d17, d3
1191	vadd.i64	q1, q2, q6
1192	vst1.8		d16, [r2, : 64]
1193	vshl.i64	q2, q6, #26
1194	vst1.8		d17, [r4, : 64]
1195	vadd.i64	q6, q7, q9
1196	vtrn.32		d0, d6
1197	vshl.i64	q7, q9, #26
1198	vtrn.32		d1, d7
1199	vsub.i64	q2, q5, q2
1200	add		r2, r2, #16
1201	vsub.i64	q3, q4, q7
1202	vst1.8		d0, [r2, : 64]
1203	add		r4, r4, #16
1204	vst1.8		d1, [r4, : 64]
1205	vtrn.32		d4, d2
1206	vtrn.32		d5, d3
1207	sub		r2, r2, #8
1208	sub		r4, r4, #8
1209	vtrn.32		d6, d12
1210	vtrn.32		d7, d13
1211	vst1.8		d4, [r2, : 64]
1212	vst1.8		d5, [r4, : 64]
1213	sub		r2, r2, #24
1214	sub		r4, r4, #24
1215	vst1.8		d6, [r2, : 64]
1216	vst1.8		d7, [r4, : 64]
1217	add		r2, r3, #336
1218	add		r4, r3, #288
1219	vld1.8		{d0-d1}, [r2, : 128]!
1220	vld1.8		{d2-d3}, [r4, : 128]!
1221	vadd.i32	q0, q0, q1
1222	vld1.8		{d2-d3}, [r2, : 128]!
1223	vld1.8		{d4-d5}, [r4, : 128]!
1224	vadd.i32	q1, q1, q2
1225	add		r5, r3, #288
1226	vld1.8		{d4}, [r2, : 64]
1227	vld1.8		{d6}, [r4, : 64]
1228	vadd.i32	q2, q2, q3
1229	vst1.8		{d0-d1}, [r5, : 128]!
1230	vst1.8		{d2-d3}, [r5, : 128]!
1231	vst1.8		d4, [r5, : 64]
1232	add		r2, r3, #48
1233	add		r4, r3, #144
1234	vld1.8		{d0-d1}, [r4, : 128]!
1235	vld1.8		{d2-d3}, [r4, : 128]!
1236	vld1.8		{d4}, [r4, : 64]
1237	add		r4, r3, #288
1238	vld1.8		{d6-d7}, [r4, : 128]!
1239	vtrn.32		q0, q3
1240	vld1.8		{d8-d9}, [r4, : 128]!
1241	vshl.i32	q5, q0, #4
1242	vtrn.32		q1, q4
1243	vshl.i32	q6, q3, #4
1244	vadd.i32	q5, q5, q0
1245	vadd.i32	q6, q6, q3
1246	vshl.i32	q7, q1, #4
1247	vld1.8		{d5}, [r4, : 64]
1248	vshl.i32	q8, q4, #4
1249	vtrn.32		d4, d5
1250	vadd.i32	q7, q7, q1
1251	vadd.i32	q8, q8, q4
1252	vld1.8		{d18-d19}, [r2, : 128]!
1253	vshl.i32	q10, q2, #4
1254	vld1.8		{d22-d23}, [r2, : 128]!
1255	vadd.i32	q10, q10, q2
1256	vld1.8		{d24}, [r2, : 64]
1257	vadd.i32	q5, q5, q0
1258	add		r2, r3, #240
1259	vld1.8		{d26-d27}, [r2, : 128]!
1260	vadd.i32	q6, q6, q3
1261	vld1.8		{d28-d29}, [r2, : 128]!
1262	vadd.i32	q8, q8, q4
1263	vld1.8		{d25}, [r2, : 64]
1264	vadd.i32	q10, q10, q2
1265	vtrn.32		q9, q13
1266	vadd.i32	q7, q7, q1
1267	vadd.i32	q5, q5, q0
1268	vtrn.32		q11, q14
1269	vadd.i32	q6, q6, q3
1270	add		r2, sp, #528
1271	vadd.i32	q10, q10, q2
1272	vtrn.32		d24, d25
1273	vst1.8		{d12-d13}, [r2, : 128]!
1274	vshl.i32	q6, q13, #1
1275	vst1.8		{d20-d21}, [r2, : 128]!
1276	vshl.i32	q10, q14, #1
1277	vst1.8		{d12-d13}, [r2, : 128]!
1278	vshl.i32	q15, q12, #1
1279	vadd.i32	q8, q8, q4
1280	vext.32		d10, d31, d30, #0
1281	vadd.i32	q7, q7, q1
1282	vst1.8		{d16-d17}, [r2, : 128]!
1283	vmull.s32	q8, d18, d5
1284	vmlal.s32	q8, d26, d4
1285	vmlal.s32	q8, d19, d9
1286	vmlal.s32	q8, d27, d3
1287	vmlal.s32	q8, d22, d8
1288	vmlal.s32	q8, d28, d2
1289	vmlal.s32	q8, d23, d7
1290	vmlal.s32	q8, d29, d1
1291	vmlal.s32	q8, d24, d6
1292	vmlal.s32	q8, d25, d0
1293	vst1.8		{d14-d15}, [r2, : 128]!
1294	vmull.s32	q2, d18, d4
1295	vmlal.s32	q2, d12, d9
1296	vmlal.s32	q2, d13, d8
1297	vmlal.s32	q2, d19, d3
1298	vmlal.s32	q2, d22, d2
1299	vmlal.s32	q2, d23, d1
1300	vmlal.s32	q2, d24, d0
1301	vst1.8		{d20-d21}, [r2, : 128]!
1302	vmull.s32	q7, d18, d9
1303	vmlal.s32	q7, d26, d3
1304	vmlal.s32	q7, d19, d8
1305	vmlal.s32	q7, d27, d2
1306	vmlal.s32	q7, d22, d7
1307	vmlal.s32	q7, d28, d1
1308	vmlal.s32	q7, d23, d6
1309	vmlal.s32	q7, d29, d0
1310	vst1.8		{d10-d11}, [r2, : 128]!
1311	vmull.s32	q5, d18, d3
1312	vmlal.s32	q5, d19, d2
1313	vmlal.s32	q5, d22, d1
1314	vmlal.s32	q5, d23, d0
1315	vmlal.s32	q5, d12, d8
1316	vst1.8		{d16-d17}, [r2, : 128]!
1317	vmull.s32	q4, d18, d8
1318	vmlal.s32	q4, d26, d2
1319	vmlal.s32	q4, d19, d7
1320	vmlal.s32	q4, d27, d1
1321	vmlal.s32	q4, d22, d6
1322	vmlal.s32	q4, d28, d0
1323	vmull.s32	q8, d18, d7
1324	vmlal.s32	q8, d26, d1
1325	vmlal.s32	q8, d19, d6
1326	vmlal.s32	q8, d27, d0
1327	add		r2, sp, #544
1328	vld1.8		{d20-d21}, [r2, : 128]
1329	vmlal.s32	q7, d24, d21
1330	vmlal.s32	q7, d25, d20
1331	vmlal.s32	q4, d23, d21
1332	vmlal.s32	q4, d29, d20
1333	vmlal.s32	q8, d22, d21
1334	vmlal.s32	q8, d28, d20
1335	vmlal.s32	q5, d24, d20
1336	vst1.8		{d14-d15}, [r2, : 128]
1337	vmull.s32	q7, d18, d6
1338	vmlal.s32	q7, d26, d0
1339	add		r2, sp, #624
1340	vld1.8		{d30-d31}, [r2, : 128]
1341	vmlal.s32	q2, d30, d21
1342	vmlal.s32	q7, d19, d21
1343	vmlal.s32	q7, d27, d20
1344	add		r2, sp, #592
1345	vld1.8		{d26-d27}, [r2, : 128]
1346	vmlal.s32	q4, d25, d27
1347	vmlal.s32	q8, d29, d27
1348	vmlal.s32	q8, d25, d26
1349	vmlal.s32	q7, d28, d27
1350	vmlal.s32	q7, d29, d26
1351	add		r2, sp, #576
1352	vld1.8		{d28-d29}, [r2, : 128]
1353	vmlal.s32	q4, d24, d29
1354	vmlal.s32	q8, d23, d29
1355	vmlal.s32	q8, d24, d28
1356	vmlal.s32	q7, d22, d29
1357	vmlal.s32	q7, d23, d28
1358	vst1.8		{d8-d9}, [r2, : 128]
1359	add		r2, sp, #528
1360	vld1.8		{d8-d9}, [r2, : 128]
1361	vmlal.s32	q7, d24, d9
1362	vmlal.s32	q7, d25, d31
1363	vmull.s32	q1, d18, d2
1364	vmlal.s32	q1, d19, d1
1365	vmlal.s32	q1, d22, d0
1366	vmlal.s32	q1, d24, d27
1367	vmlal.s32	q1, d23, d20
1368	vmlal.s32	q1, d12, d7
1369	vmlal.s32	q1, d13, d6
1370	vmull.s32	q6, d18, d1
1371	vmlal.s32	q6, d19, d0
1372	vmlal.s32	q6, d23, d27
1373	vmlal.s32	q6, d22, d20
1374	vmlal.s32	q6, d24, d26
1375	vmull.s32	q0, d18, d0
1376	vmlal.s32	q0, d22, d27
1377	vmlal.s32	q0, d23, d26
1378	vmlal.s32	q0, d24, d31
1379	vmlal.s32	q0, d19, d20
1380	add		r2, sp, #608
1381	vld1.8		{d18-d19}, [r2, : 128]
1382	vmlal.s32	q2, d18, d7
1383	vmlal.s32	q5, d18, d6
1384	vmlal.s32	q1, d18, d21
1385	vmlal.s32	q0, d18, d28
1386	vmlal.s32	q6, d18, d29
1387	vmlal.s32	q2, d19, d6
1388	vmlal.s32	q5, d19, d21
1389	vmlal.s32	q1, d19, d29
1390	vmlal.s32	q0, d19, d9
1391	vmlal.s32	q6, d19, d28
1392	add		r2, sp, #560
1393	vld1.8		{d18-d19}, [r2, : 128]
1394	add		r2, sp, #480
1395	vld1.8		{d22-d23}, [r2, : 128]
1396	vmlal.s32	q5, d19, d7
1397	vmlal.s32	q0, d18, d21
1398	vmlal.s32	q0, d19, d29
1399	vmlal.s32	q6, d18, d6
1400	add		r2, sp, #496
1401	vld1.8		{d6-d7}, [r2, : 128]
1402	vmlal.s32	q6, d19, d21
1403	add		r2, sp, #544
1404	vld1.8		{d18-d19}, [r2, : 128]
1405	vmlal.s32	q0, d30, d8
1406	add		r2, sp, #640
1407	vld1.8		{d20-d21}, [r2, : 128]
1408	vmlal.s32	q5, d30, d29
1409	add		r2, sp, #576
1410	vld1.8		{d24-d25}, [r2, : 128]
1411	vmlal.s32	q1, d30, d28
1412	vadd.i64	q13, q0, q11
1413	vadd.i64	q14, q5, q11
1414	vmlal.s32	q6, d30, d9
1415	vshr.s64	q4, q13, #26
1416	vshr.s64	q13, q14, #26
1417	vadd.i64	q7, q7, q4
1418	vshl.i64	q4, q4, #26
1419	vadd.i64	q14, q7, q3
1420	vadd.i64	q9, q9, q13
1421	vshl.i64	q13, q13, #26
1422	vadd.i64	q15, q9, q3
1423	vsub.i64	q0, q0, q4
1424	vshr.s64	q4, q14, #25
1425	vsub.i64	q5, q5, q13
1426	vshr.s64	q13, q15, #25
1427	vadd.i64	q6, q6, q4
1428	vshl.i64	q4, q4, #25
1429	vadd.i64	q14, q6, q11
1430	vadd.i64	q2, q2, q13
1431	vsub.i64	q4, q7, q4
1432	vshr.s64	q7, q14, #26
1433	vshl.i64	q13, q13, #25
1434	vadd.i64	q14, q2, q11
1435	vadd.i64	q8, q8, q7
1436	vshl.i64	q7, q7, #26
1437	vadd.i64	q15, q8, q3
1438	vsub.i64	q9, q9, q13
1439	vshr.s64	q13, q14, #26
1440	vsub.i64	q6, q6, q7
1441	vshr.s64	q7, q15, #25
1442	vadd.i64	q10, q10, q13
1443	vshl.i64	q13, q13, #26
1444	vadd.i64	q14, q10, q3
1445	vadd.i64	q1, q1, q7
1446	add		r2, r3, #240
1447	vshl.i64	q7, q7, #25
1448	add		r4, r3, #144
1449	vadd.i64	q15, q1, q11
1450	add		r2, r2, #8
1451	vsub.i64	q2, q2, q13
1452	add		r4, r4, #8
1453	vshr.s64	q13, q14, #25
1454	vsub.i64	q7, q8, q7
1455	vshr.s64	q8, q15, #26
1456	vadd.i64	q14, q13, q13
1457	vadd.i64	q12, q12, q8
1458	vtrn.32		d12, d14
1459	vshl.i64	q8, q8, #26
1460	vtrn.32		d13, d15
1461	vadd.i64	q3, q12, q3
1462	vadd.i64	q0, q0, q14
1463	vst1.8		d12, [r2, : 64]!
1464	vshl.i64	q7, q13, #4
1465	vst1.8		d13, [r4, : 64]!
1466	vsub.i64	q1, q1, q8
1467	vshr.s64	q3, q3, #25
1468	vadd.i64	q0, q0, q7
1469	vadd.i64	q5, q5, q3
1470	vshl.i64	q3, q3, #25
1471	vadd.i64	q6, q5, q11
1472	vadd.i64	q0, q0, q13
1473	vshl.i64	q7, q13, #25
1474	vadd.i64	q8, q0, q11
1475	vsub.i64	q3, q12, q3
1476	vshr.s64	q6, q6, #26
1477	vsub.i64	q7, q10, q7
1478	vtrn.32		d2, d6
1479	vshr.s64	q8, q8, #26
1480	vtrn.32		d3, d7
1481	vadd.i64	q3, q9, q6
1482	vst1.8		d2, [r2, : 64]
1483	vshl.i64	q6, q6, #26
1484	vst1.8		d3, [r4, : 64]
1485	vadd.i64	q1, q4, q8
1486	vtrn.32		d4, d14
1487	vshl.i64	q4, q8, #26
1488	vtrn.32		d5, d15
1489	vsub.i64	q5, q5, q6
1490	add		r2, r2, #16
1491	vsub.i64	q0, q0, q4
1492	vst1.8		d4, [r2, : 64]
1493	add		r4, r4, #16
1494	vst1.8		d5, [r4, : 64]
1495	vtrn.32		d10, d6
1496	vtrn.32		d11, d7
1497	sub		r2, r2, #8
1498	sub		r4, r4, #8
1499	vtrn.32		d0, d2
1500	vtrn.32		d1, d3
1501	vst1.8		d10, [r2, : 64]
1502	vst1.8		d11, [r4, : 64]
1503	sub		r2, r2, #24
1504	sub		r4, r4, #24
1505	vst1.8		d0, [r2, : 64]
1506	vst1.8		d1, [r4, : 64]
1507	ldr		r2, [sp, #456]
1508	ldr		r4, [sp, #460]
1509	subs		r5, r2, #1
1510	bge		.Lmainloop
1511	add		r1, r3, #144
1512	add		r2, r3, #336
1513	vld1.8		{d0-d1}, [r1, : 128]!
1514	vld1.8		{d2-d3}, [r1, : 128]!
1515	vld1.8		{d4}, [r1, : 64]
1516	vst1.8		{d0-d1}, [r2, : 128]!
1517	vst1.8		{d2-d3}, [r2, : 128]!
1518	vst1.8		d4, [r2, : 64]
1519	movw		r1, #0
1520.Linvertloop:
1521	add		r2, r3, #144
1522	movw		r4, #0
1523	movw		r5, #2
1524	cmp		r1, #1
1525	moveq		r5, #1
1526	addeq		r2, r3, #336
1527	addeq		r4, r3, #48
1528	cmp		r1, #2
1529	moveq		r5, #1
1530	addeq		r2, r3, #48
1531	cmp		r1, #3
1532	moveq		r5, #5
1533	addeq		r4, r3, #336
1534	cmp		r1, #4
1535	moveq		r5, #10
1536	cmp		r1, #5
1537	moveq		r5, #20
1538	cmp		r1, #6
1539	moveq		r5, #10
1540	addeq		r2, r3, #336
1541	addeq		r4, r3, #336
1542	cmp		r1, #7
1543	moveq		r5, #50
1544	cmp		r1, #8
1545	moveq		r5, #100
1546	cmp		r1, #9
1547	moveq		r5, #50
1548	addeq		r2, r3, #336
1549	cmp		r1, #10
1550	moveq		r5, #5
1551	addeq		r2, r3, #48
1552	cmp		r1, #11
1553	moveq		r5, #0
1554	addeq		r2, r3, #96
1555	add		r6, r3, #144
1556	add		r7, r3, #288
1557	vld1.8		{d0-d1}, [r6, : 128]!
1558	vld1.8		{d2-d3}, [r6, : 128]!
1559	vld1.8		{d4}, [r6, : 64]
1560	vst1.8		{d0-d1}, [r7, : 128]!
1561	vst1.8		{d2-d3}, [r7, : 128]!
1562	vst1.8		d4, [r7, : 64]
1563	cmp		r5, #0
1564	beq		.Lskipsquaringloop
1565.Lsquaringloop:
1566	add		r6, r3, #288
1567	add		r7, r3, #288
1568	add		r8, r3, #288
1569	vmov.i32	q0, #19
1570	vmov.i32	q1, #0
1571	vmov.i32	q2, #1
1572	vzip.i32	q1, q2
1573	vld1.8		{d4-d5}, [r7, : 128]!
1574	vld1.8		{d6-d7}, [r7, : 128]!
1575	vld1.8		{d9}, [r7, : 64]
1576	vld1.8		{d10-d11}, [r6, : 128]!
1577	add		r7, sp, #384
1578	vld1.8		{d12-d13}, [r6, : 128]!
1579	vmul.i32	q7, q2, q0
1580	vld1.8		{d8}, [r6, : 64]
1581	vext.32		d17, d11, d10, #1
1582	vmul.i32	q9, q3, q0
1583	vext.32		d16, d10, d8, #1
1584	vshl.u32	q10, q5, q1
1585	vext.32		d22, d14, d4, #1
1586	vext.32		d24, d18, d6, #1
1587	vshl.u32	q13, q6, q1
1588	vshl.u32	d28, d8, d2
1589	vrev64.i32	d22, d22
1590	vmul.i32	d1, d9, d1
1591	vrev64.i32	d24, d24
1592	vext.32		d29, d8, d13, #1
1593	vext.32		d0, d1, d9, #1
1594	vrev64.i32	d0, d0
1595	vext.32		d2, d9, d1, #1
1596	vext.32		d23, d15, d5, #1
1597	vmull.s32	q4, d20, d4
1598	vrev64.i32	d23, d23
1599	vmlal.s32	q4, d21, d1
1600	vrev64.i32	d2, d2
1601	vmlal.s32	q4, d26, d19
1602	vext.32		d3, d5, d15, #1
1603	vmlal.s32	q4, d27, d18
1604	vrev64.i32	d3, d3
1605	vmlal.s32	q4, d28, d15
1606	vext.32		d14, d12, d11, #1
1607	vmull.s32	q5, d16, d23
1608	vext.32		d15, d13, d12, #1
1609	vmlal.s32	q5, d17, d4
1610	vst1.8		d8, [r7, : 64]!
1611	vmlal.s32	q5, d14, d1
1612	vext.32		d12, d9, d8, #0
1613	vmlal.s32	q5, d15, d19
1614	vmov.i64	d13, #0
1615	vmlal.s32	q5, d29, d18
1616	vext.32		d25, d19, d7, #1
1617	vmlal.s32	q6, d20, d5
1618	vrev64.i32	d25, d25
1619	vmlal.s32	q6, d21, d4
1620	vst1.8		d11, [r7, : 64]!
1621	vmlal.s32	q6, d26, d1
1622	vext.32		d9, d10, d10, #0
1623	vmlal.s32	q6, d27, d19
1624	vmov.i64	d8, #0
1625	vmlal.s32	q6, d28, d18
1626	vmlal.s32	q4, d16, d24
1627	vmlal.s32	q4, d17, d5
1628	vmlal.s32	q4, d14, d4
1629	vst1.8		d12, [r7, : 64]!
1630	vmlal.s32	q4, d15, d1
1631	vext.32		d10, d13, d12, #0
1632	vmlal.s32	q4, d29, d19
1633	vmov.i64	d11, #0
1634	vmlal.s32	q5, d20, d6
1635	vmlal.s32	q5, d21, d5
1636	vmlal.s32	q5, d26, d4
1637	vext.32		d13, d8, d8, #0
1638	vmlal.s32	q5, d27, d1
1639	vmov.i64	d12, #0
1640	vmlal.s32	q5, d28, d19
1641	vst1.8		d9, [r7, : 64]!
1642	vmlal.s32	q6, d16, d25
1643	vmlal.s32	q6, d17, d6
1644	vst1.8		d10, [r7, : 64]
1645	vmlal.s32	q6, d14, d5
1646	vext.32		d8, d11, d10, #0
1647	vmlal.s32	q6, d15, d4
1648	vmov.i64	d9, #0
1649	vmlal.s32	q6, d29, d1
1650	vmlal.s32	q4, d20, d7
1651	vmlal.s32	q4, d21, d6
1652	vmlal.s32	q4, d26, d5
1653	vext.32		d11, d12, d12, #0
1654	vmlal.s32	q4, d27, d4
1655	vmov.i64	d10, #0
1656	vmlal.s32	q4, d28, d1
1657	vmlal.s32	q5, d16, d0
1658	sub		r6, r7, #32
1659	vmlal.s32	q5, d17, d7
1660	vmlal.s32	q5, d14, d6
1661	vext.32		d30, d9, d8, #0
1662	vmlal.s32	q5, d15, d5
1663	vld1.8		{d31}, [r6, : 64]!
1664	vmlal.s32	q5, d29, d4
1665	vmlal.s32	q15, d20, d0
1666	vext.32		d0, d6, d18, #1
1667	vmlal.s32	q15, d21, d25
1668	vrev64.i32	d0, d0
1669	vmlal.s32	q15, d26, d24
1670	vext.32		d1, d7, d19, #1
1671	vext.32		d7, d10, d10, #0
1672	vmlal.s32	q15, d27, d23
1673	vrev64.i32	d1, d1
1674	vld1.8		{d6}, [r6, : 64]
1675	vmlal.s32	q15, d28, d22
1676	vmlal.s32	q3, d16, d4
1677	add		r6, r6, #24
1678	vmlal.s32	q3, d17, d2
1679	vext.32		d4, d31, d30, #0
1680	vmov		d17, d11
1681	vmlal.s32	q3, d14, d1
1682	vext.32		d11, d13, d13, #0
1683	vext.32		d13, d30, d30, #0
1684	vmlal.s32	q3, d15, d0
1685	vext.32		d1, d8, d8, #0
1686	vmlal.s32	q3, d29, d3
1687	vld1.8		{d5}, [r6, : 64]
1688	sub		r6, r6, #16
1689	vext.32		d10, d6, d6, #0
1690	vmov.i32	q1, #0xffffffff
1691	vshl.i64	q4, q1, #25
1692	add		r7, sp, #480
1693	vld1.8		{d14-d15}, [r7, : 128]
1694	vadd.i64	q9, q2, q7
1695	vshl.i64	q1, q1, #26
1696	vshr.s64	q10, q9, #26
1697	vld1.8		{d0}, [r6, : 64]!
1698	vadd.i64	q5, q5, q10
1699	vand		q9, q9, q1
1700	vld1.8		{d16}, [r6, : 64]!
1701	add		r6, sp, #496
1702	vld1.8		{d20-d21}, [r6, : 128]
1703	vadd.i64	q11, q5, q10
1704	vsub.i64	q2, q2, q9
1705	vshr.s64	q9, q11, #25
1706	vext.32		d12, d5, d4, #0
1707	vand		q11, q11, q4
1708	vadd.i64	q0, q0, q9
1709	vmov		d19, d7
1710	vadd.i64	q3, q0, q7
1711	vsub.i64	q5, q5, q11
1712	vshr.s64	q11, q3, #26
1713	vext.32		d18, d11, d10, #0
1714	vand		q3, q3, q1
1715	vadd.i64	q8, q8, q11
1716	vadd.i64	q11, q8, q10
1717	vsub.i64	q0, q0, q3
1718	vshr.s64	q3, q11, #25
1719	vand		q11, q11, q4
1720	vadd.i64	q3, q6, q3
1721	vadd.i64	q6, q3, q7
1722	vsub.i64	q8, q8, q11
1723	vshr.s64	q11, q6, #26
1724	vand		q6, q6, q1
1725	vadd.i64	q9, q9, q11
1726	vadd.i64	d25, d19, d21
1727	vsub.i64	q3, q3, q6
1728	vshr.s64	d23, d25, #25
1729	vand		q4, q12, q4
1730	vadd.i64	d21, d23, d23
1731	vshl.i64	d25, d23, #4
1732	vadd.i64	d21, d21, d23
1733	vadd.i64	d25, d25, d21
1734	vadd.i64	d4, d4, d25
1735	vzip.i32	q0, q8
1736	vadd.i64	d12, d4, d14
1737	add		r6, r8, #8
1738	vst1.8		d0, [r6, : 64]
1739	vsub.i64	d19, d19, d9
1740	add		r6, r6, #16
1741	vst1.8		d16, [r6, : 64]
1742	vshr.s64	d22, d12, #26
1743	vand		q0, q6, q1
1744	vadd.i64	d10, d10, d22
1745	vzip.i32	q3, q9
1746	vsub.i64	d4, d4, d0
1747	sub		r6, r6, #8
1748	vst1.8		d6, [r6, : 64]
1749	add		r6, r6, #16
1750	vst1.8		d18, [r6, : 64]
1751	vzip.i32	q2, q5
1752	sub		r6, r6, #32
1753	vst1.8		d4, [r6, : 64]
1754	subs		r5, r5, #1
1755	bhi		.Lsquaringloop
1756.Lskipsquaringloop:
1757	mov		r2, r2
1758	add		r5, r3, #288
1759	add		r6, r3, #144
1760	vmov.i32	q0, #19
1761	vmov.i32	q1, #0
1762	vmov.i32	q2, #1
1763	vzip.i32	q1, q2
1764	vld1.8		{d4-d5}, [r5, : 128]!
1765	vld1.8		{d6-d7}, [r5, : 128]!
1766	vld1.8		{d9}, [r5, : 64]
1767	vld1.8		{d10-d11}, [r2, : 128]!
1768	add		r5, sp, #384
1769	vld1.8		{d12-d13}, [r2, : 128]!
1770	vmul.i32	q7, q2, q0
1771	vld1.8		{d8}, [r2, : 64]
1772	vext.32		d17, d11, d10, #1
1773	vmul.i32	q9, q3, q0
1774	vext.32		d16, d10, d8, #1
1775	vshl.u32	q10, q5, q1
1776	vext.32		d22, d14, d4, #1
1777	vext.32		d24, d18, d6, #1
1778	vshl.u32	q13, q6, q1
1779	vshl.u32	d28, d8, d2
1780	vrev64.i32	d22, d22
1781	vmul.i32	d1, d9, d1
1782	vrev64.i32	d24, d24
1783	vext.32		d29, d8, d13, #1
1784	vext.32		d0, d1, d9, #1
1785	vrev64.i32	d0, d0
1786	vext.32		d2, d9, d1, #1
1787	vext.32		d23, d15, d5, #1
1788	vmull.s32	q4, d20, d4
1789	vrev64.i32	d23, d23
1790	vmlal.s32	q4, d21, d1
1791	vrev64.i32	d2, d2
1792	vmlal.s32	q4, d26, d19
1793	vext.32		d3, d5, d15, #1
1794	vmlal.s32	q4, d27, d18
1795	vrev64.i32	d3, d3
1796	vmlal.s32	q4, d28, d15
1797	vext.32		d14, d12, d11, #1
1798	vmull.s32	q5, d16, d23
1799	vext.32		d15, d13, d12, #1
1800	vmlal.s32	q5, d17, d4
1801	vst1.8		d8, [r5, : 64]!
1802	vmlal.s32	q5, d14, d1
1803	vext.32		d12, d9, d8, #0
1804	vmlal.s32	q5, d15, d19
1805	vmov.i64	d13, #0
1806	vmlal.s32	q5, d29, d18
1807	vext.32		d25, d19, d7, #1
1808	vmlal.s32	q6, d20, d5
1809	vrev64.i32	d25, d25
1810	vmlal.s32	q6, d21, d4
1811	vst1.8		d11, [r5, : 64]!
1812	vmlal.s32	q6, d26, d1
1813	vext.32		d9, d10, d10, #0
1814	vmlal.s32	q6, d27, d19
1815	vmov.i64	d8, #0
1816	vmlal.s32	q6, d28, d18
1817	vmlal.s32	q4, d16, d24
1818	vmlal.s32	q4, d17, d5
1819	vmlal.s32	q4, d14, d4
1820	vst1.8		d12, [r5, : 64]!
1821	vmlal.s32	q4, d15, d1
1822	vext.32		d10, d13, d12, #0
1823	vmlal.s32	q4, d29, d19
1824	vmov.i64	d11, #0
1825	vmlal.s32	q5, d20, d6
1826	vmlal.s32	q5, d21, d5
1827	vmlal.s32	q5, d26, d4
1828	vext.32		d13, d8, d8, #0
1829	vmlal.s32	q5, d27, d1
1830	vmov.i64	d12, #0
1831	vmlal.s32	q5, d28, d19
1832	vst1.8		d9, [r5, : 64]!
1833	vmlal.s32	q6, d16, d25
1834	vmlal.s32	q6, d17, d6
1835	vst1.8		d10, [r5, : 64]
1836	vmlal.s32	q6, d14, d5
1837	vext.32		d8, d11, d10, #0
1838	vmlal.s32	q6, d15, d4
1839	vmov.i64	d9, #0
1840	vmlal.s32	q6, d29, d1
1841	vmlal.s32	q4, d20, d7
1842	vmlal.s32	q4, d21, d6
1843	vmlal.s32	q4, d26, d5
1844	vext.32		d11, d12, d12, #0
1845	vmlal.s32	q4, d27, d4
1846	vmov.i64	d10, #0
1847	vmlal.s32	q4, d28, d1
1848	vmlal.s32	q5, d16, d0
1849	sub		r2, r5, #32
1850	vmlal.s32	q5, d17, d7
1851	vmlal.s32	q5, d14, d6
1852	vext.32		d30, d9, d8, #0
1853	vmlal.s32	q5, d15, d5
1854	vld1.8		{d31}, [r2, : 64]!
1855	vmlal.s32	q5, d29, d4
1856	vmlal.s32	q15, d20, d0
1857	vext.32		d0, d6, d18, #1
1858	vmlal.s32	q15, d21, d25
1859	vrev64.i32	d0, d0
1860	vmlal.s32	q15, d26, d24
1861	vext.32		d1, d7, d19, #1
1862	vext.32		d7, d10, d10, #0
1863	vmlal.s32	q15, d27, d23
1864	vrev64.i32	d1, d1
1865	vld1.8		{d6}, [r2, : 64]
1866	vmlal.s32	q15, d28, d22
1867	vmlal.s32	q3, d16, d4
1868	add		r2, r2, #24
1869	vmlal.s32	q3, d17, d2
1870	vext.32		d4, d31, d30, #0
1871	vmov		d17, d11
1872	vmlal.s32	q3, d14, d1
1873	vext.32		d11, d13, d13, #0
1874	vext.32		d13, d30, d30, #0
1875	vmlal.s32	q3, d15, d0
1876	vext.32		d1, d8, d8, #0
1877	vmlal.s32	q3, d29, d3
1878	vld1.8		{d5}, [r2, : 64]
1879	sub		r2, r2, #16
1880	vext.32		d10, d6, d6, #0
1881	vmov.i32	q1, #0xffffffff
1882	vshl.i64	q4, q1, #25
1883	add		r5, sp, #480
1884	vld1.8		{d14-d15}, [r5, : 128]
1885	vadd.i64	q9, q2, q7
1886	vshl.i64	q1, q1, #26
1887	vshr.s64	q10, q9, #26
1888	vld1.8		{d0}, [r2, : 64]!
1889	vadd.i64	q5, q5, q10
1890	vand		q9, q9, q1
1891	vld1.8		{d16}, [r2, : 64]!
1892	add		r2, sp, #496
1893	vld1.8		{d20-d21}, [r2, : 128]
1894	vadd.i64	q11, q5, q10
1895	vsub.i64	q2, q2, q9
1896	vshr.s64	q9, q11, #25
1897	vext.32		d12, d5, d4, #0
1898	vand		q11, q11, q4
1899	vadd.i64	q0, q0, q9
1900	vmov		d19, d7
1901	vadd.i64	q3, q0, q7
1902	vsub.i64	q5, q5, q11
1903	vshr.s64	q11, q3, #26
1904	vext.32		d18, d11, d10, #0
1905	vand		q3, q3, q1
1906	vadd.i64	q8, q8, q11
1907	vadd.i64	q11, q8, q10
1908	vsub.i64	q0, q0, q3
1909	vshr.s64	q3, q11, #25
1910	vand		q11, q11, q4
1911	vadd.i64	q3, q6, q3
1912	vadd.i64	q6, q3, q7
1913	vsub.i64	q8, q8, q11
1914	vshr.s64	q11, q6, #26
1915	vand		q6, q6, q1
1916	vadd.i64	q9, q9, q11
1917	vadd.i64	d25, d19, d21
1918	vsub.i64	q3, q3, q6
1919	vshr.s64	d23, d25, #25
1920	vand		q4, q12, q4
1921	vadd.i64	d21, d23, d23
1922	vshl.i64	d25, d23, #4
1923	vadd.i64	d21, d21, d23
1924	vadd.i64	d25, d25, d21
1925	vadd.i64	d4, d4, d25
1926	vzip.i32	q0, q8
1927	vadd.i64	d12, d4, d14
1928	add		r2, r6, #8
1929	vst1.8		d0, [r2, : 64]
1930	vsub.i64	d19, d19, d9
1931	add		r2, r2, #16
1932	vst1.8		d16, [r2, : 64]
1933	vshr.s64	d22, d12, #26
1934	vand		q0, q6, q1
1935	vadd.i64	d10, d10, d22
1936	vzip.i32	q3, q9
1937	vsub.i64	d4, d4, d0
1938	sub		r2, r2, #8
1939	vst1.8		d6, [r2, : 64]
1940	add		r2, r2, #16
1941	vst1.8		d18, [r2, : 64]
1942	vzip.i32	q2, q5
1943	sub		r2, r2, #32
1944	vst1.8		d4, [r2, : 64]
1945	cmp		r4, #0
1946	beq		.Lskippostcopy
1947	add		r2, r3, #144
1948	mov		r4, r4
1949	vld1.8		{d0-d1}, [r2, : 128]!
1950	vld1.8		{d2-d3}, [r2, : 128]!
1951	vld1.8		{d4}, [r2, : 64]
1952	vst1.8		{d0-d1}, [r4, : 128]!
1953	vst1.8		{d2-d3}, [r4, : 128]!
1954	vst1.8		d4, [r4, : 64]
1955.Lskippostcopy:
1956	cmp		r1, #1
1957	bne		.Lskipfinalcopy
1958	add		r2, r3, #288
1959	add		r4, r3, #144
1960	vld1.8		{d0-d1}, [r2, : 128]!
1961	vld1.8		{d2-d3}, [r2, : 128]!
1962	vld1.8		{d4}, [r2, : 64]
1963	vst1.8		{d0-d1}, [r4, : 128]!
1964	vst1.8		{d2-d3}, [r4, : 128]!
1965	vst1.8		d4, [r4, : 64]
1966.Lskipfinalcopy:
1967	add		r1, r1, #1
1968	cmp		r1, #12
1969	blo		.Linvertloop
1970	add		r1, r3, #144
1971	ldr		r2, [r1], #4
1972	ldr		r3, [r1], #4
1973	ldr		r4, [r1], #4
1974	ldr		r5, [r1], #4
1975	ldr		r6, [r1], #4
1976	ldr		r7, [r1], #4
1977	ldr		r8, [r1], #4
1978	ldr		r9, [r1], #4
1979	ldr		r10, [r1], #4
1980	ldr		r1, [r1]
1981	add		r11, r1, r1, LSL #4
1982	add		r11, r11, r1, LSL #1
1983	add		r11, r11, #16777216
1984	mov		r11, r11, ASR #25
1985	add		r11, r11, r2
1986	mov		r11, r11, ASR #26
1987	add		r11, r11, r3
1988	mov		r11, r11, ASR #25
1989	add		r11, r11, r4
1990	mov		r11, r11, ASR #26
1991	add		r11, r11, r5
1992	mov		r11, r11, ASR #25
1993	add		r11, r11, r6
1994	mov		r11, r11, ASR #26
1995	add		r11, r11, r7
1996	mov		r11, r11, ASR #25
1997	add		r11, r11, r8
1998	mov		r11, r11, ASR #26
1999	add		r11, r11, r9
2000	mov		r11, r11, ASR #25
2001	add		r11, r11, r10
2002	mov		r11, r11, ASR #26
2003	add		r11, r11, r1
2004	mov		r11, r11, ASR #25
2005	add		r2, r2, r11
2006	add		r2, r2, r11, LSL #1
2007	add		r2, r2, r11, LSL #4
2008	mov		r11, r2, ASR #26
2009	add		r3, r3, r11
2010	sub		r2, r2, r11, LSL #26
2011	mov		r11, r3, ASR #25
2012	add		r4, r4, r11
2013	sub		r3, r3, r11, LSL #25
2014	mov		r11, r4, ASR #26
2015	add		r5, r5, r11
2016	sub		r4, r4, r11, LSL #26
2017	mov		r11, r5, ASR #25
2018	add		r6, r6, r11
2019	sub		r5, r5, r11, LSL #25
2020	mov		r11, r6, ASR #26
2021	add		r7, r7, r11
2022	sub		r6, r6, r11, LSL #26
2023	mov		r11, r7, ASR #25
2024	add		r8, r8, r11
2025	sub		r7, r7, r11, LSL #25
2026	mov		r11, r8, ASR #26
2027	add		r9, r9, r11
2028	sub		r8, r8, r11, LSL #26
2029	mov		r11, r9, ASR #25
2030	add		r10, r10, r11
2031	sub		r9, r9, r11, LSL #25
2032	mov		r11, r10, ASR #26
2033	add		r1, r1, r11
2034	sub		r10, r10, r11, LSL #26
2035	mov		r11, r1, ASR #25
2036	sub		r1, r1, r11, LSL #25
2037	add		r2, r2, r3, LSL #26
2038	mov		r3, r3, LSR #6
2039	add		r3, r3, r4, LSL #19
2040	mov		r4, r4, LSR #13
2041	add		r4, r4, r5, LSL #13
2042	mov		r5, r5, LSR #19
2043	add		r5, r5, r6, LSL #6
2044	add		r6, r7, r8, LSL #25
2045	mov		r7, r8, LSR #7
2046	add		r7, r7, r9, LSL #19
2047	mov		r8, r9, LSR #13
2048	add		r8, r8, r10, LSL #12
2049	mov		r9, r10, LSR #20
2050	add		r1, r9, r1, LSL #6
2051	str		r2, [r0]
2052	str		r3, [r0, #4]
2053	str		r4, [r0, #8]
2054	str		r5, [r0, #12]
2055	str		r6, [r0, #16]
2056	str		r7, [r0, #20]
2057	str		r8, [r0, #24]
2058	str		r1, [r0, #28]
2059	movw		r0, #0
2060	mov		sp, ip
2061	pop		{r4-r11, pc}
2062ENDPROC(curve25519_neon)
2063