1*e20043b4SChristoph Hellwig /* SPDX-License-Identifier: GPL-2.0-or-later */ 2*e20043b4SChristoph Hellwig /* 3*e20043b4SChristoph Hellwig * Copyright (C) 2023 WANG Xuerui <git@xen0n.name> 4*e20043b4SChristoph Hellwig */ 5*e20043b4SChristoph Hellwig #include <asm/cpu-features.h> 6*e20043b4SChristoph Hellwig 7*e20043b4SChristoph Hellwig /* 8*e20043b4SChristoph Hellwig * For grins, also test the generic routines. 9*e20043b4SChristoph Hellwig * 10*e20043b4SChristoph Hellwig * More importantly: it cannot be ruled out at this point of time, that some 11*e20043b4SChristoph Hellwig * future (maybe reduced) models could run the vector algorithms slower than 12*e20043b4SChristoph Hellwig * the scalar ones, maybe for errata or micro-op reasons. It may be 13*e20043b4SChristoph Hellwig * appropriate to revisit this after one or two more uarch generations. 14*e20043b4SChristoph Hellwig */ 15*e20043b4SChristoph Hellwig 16*e20043b4SChristoph Hellwig extern struct xor_block_template xor_block_lsx; 17*e20043b4SChristoph Hellwig extern struct xor_block_template xor_block_lasx; 18*e20043b4SChristoph Hellwig 19*e20043b4SChristoph Hellwig static __always_inline void __init arch_xor_init(void) 20*e20043b4SChristoph Hellwig { 21*e20043b4SChristoph Hellwig xor_register(&xor_block_8regs); 22*e20043b4SChristoph Hellwig xor_register(&xor_block_8regs_p); 23*e20043b4SChristoph Hellwig xor_register(&xor_block_32regs); 24*e20043b4SChristoph Hellwig xor_register(&xor_block_32regs_p); 25*e20043b4SChristoph Hellwig #ifdef CONFIG_CPU_HAS_LSX 26*e20043b4SChristoph Hellwig if (cpu_has_lsx) 27*e20043b4SChristoph Hellwig xor_register(&xor_block_lsx); 28*e20043b4SChristoph Hellwig #endif 29*e20043b4SChristoph Hellwig #ifdef CONFIG_CPU_HAS_LASX 30*e20043b4SChristoph Hellwig if (cpu_has_lasx) 31*e20043b4SChristoph Hellwig xor_register(&xor_block_lasx); 32*e20043b4SChristoph Hellwig #endif 33*e20043b4SChristoph Hellwig } 34