xref: /linux/lib/raid/xor/loongarch/xor_arch.h (revision 440d6635b20037bc9ad46b20817d7b61cef0fc1b)
1*e20043b4SChristoph Hellwig /* SPDX-License-Identifier: GPL-2.0-or-later */
2*e20043b4SChristoph Hellwig /*
3*e20043b4SChristoph Hellwig  * Copyright (C) 2023 WANG Xuerui <git@xen0n.name>
4*e20043b4SChristoph Hellwig  */
5*e20043b4SChristoph Hellwig #include <asm/cpu-features.h>
6*e20043b4SChristoph Hellwig 
7*e20043b4SChristoph Hellwig /*
8*e20043b4SChristoph Hellwig  * For grins, also test the generic routines.
9*e20043b4SChristoph Hellwig  *
10*e20043b4SChristoph Hellwig  * More importantly: it cannot be ruled out at this point of time, that some
11*e20043b4SChristoph Hellwig  * future (maybe reduced) models could run the vector algorithms slower than
12*e20043b4SChristoph Hellwig  * the scalar ones, maybe for errata or micro-op reasons. It may be
13*e20043b4SChristoph Hellwig  * appropriate to revisit this after one or two more uarch generations.
14*e20043b4SChristoph Hellwig  */
15*e20043b4SChristoph Hellwig 
16*e20043b4SChristoph Hellwig extern struct xor_block_template xor_block_lsx;
17*e20043b4SChristoph Hellwig extern struct xor_block_template xor_block_lasx;
18*e20043b4SChristoph Hellwig 
19*e20043b4SChristoph Hellwig static __always_inline void __init arch_xor_init(void)
20*e20043b4SChristoph Hellwig {
21*e20043b4SChristoph Hellwig 	xor_register(&xor_block_8regs);
22*e20043b4SChristoph Hellwig 	xor_register(&xor_block_8regs_p);
23*e20043b4SChristoph Hellwig 	xor_register(&xor_block_32regs);
24*e20043b4SChristoph Hellwig 	xor_register(&xor_block_32regs_p);
25*e20043b4SChristoph Hellwig #ifdef CONFIG_CPU_HAS_LSX
26*e20043b4SChristoph Hellwig 	if (cpu_has_lsx)
27*e20043b4SChristoph Hellwig 		xor_register(&xor_block_lsx);
28*e20043b4SChristoph Hellwig #endif
29*e20043b4SChristoph Hellwig #ifdef CONFIG_CPU_HAS_LASX
30*e20043b4SChristoph Hellwig 	if (cpu_has_lasx)
31*e20043b4SChristoph Hellwig 		xor_register(&xor_block_lasx);
32*e20043b4SChristoph Hellwig #endif
33*e20043b4SChristoph Hellwig }
34