/linux/arch/sparc/lib/ |
H A D | M7memset.S | 128 mov %o0, %o5 ! copy sp1 before using it 144 andcc %o5, 7, %o3 ! is sp1 aligned on a 8 byte bound? 150 1: stb %o1, [%o5] ! there is at least 1 byte to set 153 inc %o5 155 ! Now sp1 is long word aligned (sp1 is found in %o5) 161 andcc %o5, 63, %o3 ! is sp1 block aligned? 171 stx %o1, [%o5] 173 add %o5, 8, %o5 194 sub %o5, 8, %o5 ! adjust %o5 for ASI store alignment 197 stxa %o1, [%o5+8]%asi [all …]
|
H A D | checksum_64.S | 34 lduh [%o0 + 0x00], %o5 38 add %o5, %o4, %o4 73 1: lduw [%o0 + 0x00], %o5 76 add %o4, %o5, %o4 79 lduw [%o0 + 0x10], %o5 84 add %o4, %o5, %o4 87 lduw [%o0 + 0x20], %o5 92 add %o4, %o5, %o4 95 lduw [%o0 + 0x30], %o5 100 add %o4, %o5, %o4 [all …]
|
H A D | csum_copy.S | 60 EX_LD(LOAD(lduh, %o0 + 0x00, %o5)) 63 EX_ST(STORE(sth, %o5, %o1 + 0x00)) 66 add %o5, %o4, %o4 108 1: EX_LD(LOAD(lduw, %o0 + 0x00, %o5)) 111 add %o4, %o5, %o4 112 EX_ST(STORE(stw, %o5, %o1 + 0x00)) 113 EX_LD(LOAD(lduw, %o0 + 0x0c, %o5)) 120 add %o4, %o5, %o4 121 EX_ST(STORE(stw, %o5, %o1 + 0x0c)) 122 EX_LD(LOAD(lduw, %o0 + 0x18, %o5)) [all …]
|
H A D | Memcpy_utils.S | 142 add %o2, %o5, %o0 145 add %o5, 1, %o5 147 add %o2, %o5, %o0 150 add %o5, 4, %o5 152 add %o2, %o5, %o0 155 add %o5, 8, %o5 157 add %o2, %o5, %o0 160 add %o5, 16, %o5 162 add %o2, %o5, %o0 165 add %o5, 24, %o5 [all …]
|
H A D | multi3.S | 13 sllx %g7, 0x20, %o5 15 sub %o1, %o5, %o5 16 srlx %o5, 0x20, %o5 17 addcc %g7, %o5, %g7 18 srlx %o3, 0x20, %o5 19 mulx %o4, %o5, %o4 20 mulx %g3, %o5, %o5 26 addcc %o5, %g7, %o5 29 add %o5, %g3, %g2
|
H A D | M7memcpy.S | 200 neg %o0, %o5 201 andcc %o5, 7, %o5 ! bytes till DST 8 byte aligned 202 brz,pt %o5, .Ldst_aligned_on_8 204 ! %o5 has the bytes to be written in partial store. 205 sub %o2, %o5, %o2 210 subcc %o5, 1, %o5 216 andcc %o1, 7, %o5 217 brnz,pt %o5, .Lsrc_dst_unaligned_on_8 301 andcc %o1, 0x3, %o5 ! test word alignment 322 sllx %o4, 32, %o5 [all …]
|
H A D | strlen.S | 22 ldub [%o0], %o5 23 BRANCH_REG_ZERO(pn, %o5, 11f) 28 ldub [%o0], %o5 29 BRANCH_REG_ZERO(pn, %o5, 12f) 34 ldub [%o0], %o5 35 BRANCH_REG_ZERO(pn, %o5, 13f) 46 ld [%o0], %o5 48 sub %o5, %o2, %o4 54 srl %o5, 24, %g7 58 srl %o5, 16, %g7 [all …]
|
H A D | memscan_64.S | 30 ldub [%o0], %o5 32 brz,pn %o5, 10f 38 ldub [%o0], %o5 40 ldxa [%o0] ASI_PL, %o5 49 sub %o5, %o2, %o4 50 xor %o4, %o5, %o4 56 ldxa [%o0] ASI_PL, %o5 59 andcc %o5, 0xff, %g0 62 srlx %o5, 32, %g7 64 2: srlx %o5, 8, %g7 [all …]
|
H A D | NG4memcpy.S | 20 rd %fprs, %o5; \ 21 andcc %o5, FPRS_FEF, %g0; \ 29 #define VISExitHalf and %o5, FPRS_FEF, %o5; wr %o5, 0x0, %fprs 32 #define VISExitHalf and %o5, FPRS_FEF, %o5; wr %o5, 0x0, %fprs 149 andcc %o1, 0x7, %o5 178 EX_LD(LOAD(ldx, %o1 - 0x20, %o5), memcpy_retl_o2_plus_o4_plus_64) 190 EX_ST(STORE_INIT(%o5, %o0), memcpy_retl_o2_plus_o4_plus_32) 273 andncc %o2, 0x20 - 1, %o5 275 sub %o2, %o5, %o2 281 subcc %o5, 0x20, %o5 [all …]
|
H A D | U3memcpy.S | 16 #define VISEntryHalf rd %fprs, %o5; wr %g0, FPRS_FEF, %fprs; \ 18 #define VISExitHalf and %o5, FPRS_FEF, %o5; wr %o5, 0x0, %fprs 20 #define VISEntryHalf rd %fprs, %o5; wr %g0, FPRS_FEF, %fprs 21 #define VISExitHalf and %o5, FPRS_FEF, %o5; wr %o5, 0x0, %fprs 381 EX_LD(LOAD(ldx, %o1, %o5), U3_retl_o2) 382 EX_ST(STORE(stx, %o5, %o1 + %o3), U3_retl_o2) 389 EX_LD(LOAD(lduw, %o1, %o5), U3_retl_o2) 390 EX_ST(STORE(stw, %o5, %o1 + %o3), U3_retl_o2) 397 EX_LD(LOAD(lduh, %o1, %o5), U3_retl_o2) 398 EX_ST(STORE(sth, %o5, %o1 + %o3), U3_retl_o2) [all …]
|
H A D | blockops.S | 77 MIRROR_BLOCK(%o0, %o1, 0x00, %o2, %o3, %o4, %o5, %g2, %g3, %g4, %g5) 78 MIRROR_BLOCK(%o0, %o1, 0x20, %o2, %o3, %o4, %o5, %g2, %g3, %g4, %g5) 79 MIRROR_BLOCK(%o0, %o1, 0x40, %o2, %o3, %o4, %o5, %g2, %g3, %g4, %g5) 80 MIRROR_BLOCK(%o0, %o1, 0x60, %o2, %o3, %o4, %o5, %g2, %g3, %g4, %g5) 81 MIRROR_BLOCK(%o0, %o1, 0x80, %o2, %o3, %o4, %o5, %g2, %g3, %g4, %g5) 82 MIRROR_BLOCK(%o0, %o1, 0xa0, %o2, %o3, %o4, %o5, %g2, %g3, %g4, %g5) 83 MIRROR_BLOCK(%o0, %o1, 0xc0, %o2, %o3, %o4, %o5, %g2, %g3, %g4, %g5) 84 MIRROR_BLOCK(%o0, %o1, 0xe0, %o2, %o3, %o4, %o5, %g2, %g3, %g4, %g5)
|
H A D | copy_user.S | 190 andcc %o4, 3, %o5 217 MOVE_BIGCHUNK(o1, o0, 0x00, o2, o3, o4, o5, g2, g3, g4, g5) 218 MOVE_BIGCHUNK(o1, o0, 0x20, o2, o3, o4, o5, g2, g3, g4, g5) 219 MOVE_BIGCHUNK(o1, o0, 0x40, o2, o3, o4, o5, g2, g3, g4, g5) 220 MOVE_BIGCHUNK(o1, o0, 0x60, o2, o3, o4, o5, g2, g3, g4, g5) 230 sethi %hi(copy_user_table_end), %o5 234 sub %o5, %o4, %o5 235 jmpl %o5 + %lo(copy_user_table_end), %g0 281 MOVE_BIGALIGNCHUNK(o1, o0, 0x00, o2, o3, o4, o5, g2, g3, g4, g5) 282 MOVE_BIGALIGNCHUNK(o1, o0, 0x20, o2, o3, o4, o5, g2, g3, g4, g5) [all …]
|
H A D | memcpy.S | 77 andcc %o4, 3, %o5 131 andcc %o4, 3, %o5 158 MOVE_BIGCHUNK(o1, o0, 0x00, o2, o3, o4, o5, g2, g3, g4, g5) 159 MOVE_BIGCHUNK(o1, o0, 0x20, o2, o3, o4, o5, g2, g3, g4, g5) 160 MOVE_BIGCHUNK(o1, o0, 0x40, o2, o3, o4, o5, g2, g3, g4, g5) 161 MOVE_BIGCHUNK(o1, o0, 0x60, o2, o3, o4, o5, g2, g3, g4, g5) 172 sethi %hi(80f), %o5 176 sub %o5, %o4, %o5 177 jmpl %o5 + %lo(80f), %g0 228 MOVE_BIGALIGNCHUNK(o1, o0, 0x00, o2, o3, o4, o5, g2, g3, g4, g5) [all …]
|
H A D | checksum_32.S | 69 4: ldub [%o0], %o5 ! get final byte 70 sll %o5, 8, %o5 ! put into place 71 or %o5, %o4, %o4 ! coalese with hword (if any) 117 5: CSUM_BIGCHUNK(%o0, 0x00, %o2, %o4, %o5, %g2, %g3, %g4, %g5) 118 CSUM_BIGCHUNK(%o0, 0x20, %o2, %o4, %o5, %g2, %g3, %g4, %g5) 119 CSUM_BIGCHUNK(%o0, 0x40, %o2, %o4, %o5, %g2, %g3, %g4, %g5) 120 CSUM_BIGCHUNK(%o0, 0x60, %o2, %o4, %o5, %g2, %g3, %g4, %g5) 255 4: EX(ldub [%o0 + 0x00], %o5) 256 EX(stb %o5, [%o1 + 0x00]) 257 sll %o5, 8, %o5 [all …]
|
H A D | VISsave.S | 40 or %g3, %o5, %g3 48 mov FPRS_DU | FPRS_DL | FPRS_FEF, %o5 50 stb %o5, [%g3 + TI_FPSAVED] 58 3: andcc %o5, FPRS_DL|FPRS_DU, %g0 61 andcc %o5, FPRS_DL, %g0 69 andcc %o5, FPRS_DU, %g0
|
H A D | udivdi3.S | 161 mov %i0,%o5 167 addxcc %o5,%o5,%o5 ! shift n1n0 and a q-bit in lsb 174 addxcc %o5,%o5,%o5 ! shift n1n0 and a q-bit in lsb 183 addcc %o5,%o5,%o5 ! shift n1n0 and a 0-bit in lsb 185 3: xnor %o5,0,%o5 188 mov %o5,%o1
|
/linux/arch/sparc/kernel/ |
H A D | hvcalls.S | 8 mov HV_FAST_INTR_DEVINO2SYSINO, %o5 19 mov HV_FAST_INTR_GETENABLED, %o5 29 mov HV_FAST_INTR_SETENABLED, %o5 40 mov HV_FAST_INTR_GETSTATE, %o5 50 mov HV_FAST_INTR_SETSTATE, %o5 61 mov HV_FAST_INTR_GETTARGET, %o5 71 mov HV_FAST_INTR_SETTARGET, %o5 85 mov HV_FAST_CPU_START, %o5 96 mov HV_FAST_CPU_STOP, %o5 104 mov HV_FAST_CPU_YIELD, %o5 [all …]
|
H A D | pci_sun4v_asm.S | 20 mov %o5, %g1 21 mov HV_FAST_PCI_IOMMU_MAP, %o5 37 mov HV_FAST_PCI_IOMMU_DEMAP, %o5 52 mov HV_FAST_PCI_IOMMU_GETMAP, %o5 71 mov HV_FAST_PCI_CONFIG_GET, %o5 91 mov HV_FAST_PCI_CONFIG_PUT, %o5 110 mov HV_FAST_PCI_MSIQ_CONF, %o5 125 mov HV_FAST_PCI_MSIQ_INFO, %o5 140 mov HV_FAST_PCI_MSIQ_GETVALID, %o5 154 mov HV_FAST_PCI_MSIQ_SETVALID, %o5 [all …]
|
H A D | tsb.S | 320 rdpr %pstate, %o5 321 wrpr %o5, PSTATE_IE, %pstate 324 wrpr %o5, %pstate 378 mov SECONDARY_CONTEXT, %o5 380 661: stxa %o4, [%o5] ASI_DMMU 383 stxa %o4, [%o5] ASI_MMU 407 mov SCRATCHPAD_UTSBREG1, %o5 408 stxa %o0, [%o5] ASI_SCRATCHPAD 409 mov SCRATCHPAD_UTSBREG2, %o5 410 stxa %g3, [%o5] ASI_SCRATCHPAD [all …]
|
/linux/arch/sparc/crypto/ |
H A D | camellia_asm.S | 93 ROTL128(%o4, %o5, %g2, %g3, 15) 95 stx %o5, [%o1 + 0x38] ! k[14, 15] 96 ROTL128(%o4, %o5, %g2, %g3, 15) 98 stx %o5, [%o1 + 0x48] ! k[18, 19] 99 ROTL128(%o4, %o5, %g2, %g3, 15) 101 ROTL128(%o4, %o5, %g2, %g3, 15) 103 stx %o5, [%o1 + 0x78] ! k[30, 31] 104 ROTL128(%o4, %o5, %g2, %g3, 34) 106 stx %o5, [%o1 + 0xa8] ! k[42, 43] 107 ROTL128(%o4, %o5, %g2, %g3, 17) [all …]
|
H A D | aes_asm.S | 922 ldx [%o1 + 0x18], %o5 928 xor %g2, %o5, %g7 965 ldx [%o1 + 0x18], %o5 971 xor %g2, %o5, %g7 1008 ldx [%o1 + 0x18], %o5 1014 xor %g2, %o5, %g7 1055 ldx [%o1 + 0x18], %o5 1061 xor %g2, %o5, %g7 1098 ldx [%o1 + 0x18], %o5 1104 xor %g2, %o5, %g7 [all …]
|
/linux/drivers/char/hw_random/ |
H A D | n2-asm.S | 13 mov HV_FAST_RNG_GET_DIAG_CTL, %o5 22 mov HV_FAST_RNG_CTL_READ, %o5 33 mov HV_FAST_RNG_CTL_READ, %o5 45 mov HV_FAST_RNG_CTL_WRITE, %o5 52 mov HV_FAST_RNG_CTL_WRITE, %o5 60 mov HV_FAST_RNG_DATA_READ_DIAG, %o5 68 mov HV_FAST_RNG_DATA_READ_DIAG, %o5 76 mov HV_FAST_RNG_DATA_READ, %o5
|
/linux/arch/sparc/include/asm/ |
H A D | visasm.h | 16 rd %fprs, %o5; \ 17 andcc %o5, (FPRS_FEF|FPRS_DU), %g0; \ 38 rd %fprs, %o5; \ 39 andcc %o5, FPRS_FEF, %g0; \ 43 297: wr %o5, FPRS_FEF, %fprs; 46 wr %o5, 0, %fprs;
|
/linux/arch/sparc/mm/ |
H A D | tsunami.S | 101 MIRROR_BLOCK(%o0, %o1, 0x00, %o2, %o3, %o4, %o5) 102 MIRROR_BLOCK(%o0, %o1, 0x20, %o2, %o3, %o4, %o5) 103 MIRROR_BLOCK(%o0, %o1, 0x40, %o2, %o3, %o4, %o5) 104 MIRROR_BLOCK(%o0, %o1, 0x60, %o2, %o3, %o4, %o5) 105 MIRROR_BLOCK(%o0, %o1, 0x80, %o2, %o3, %o4, %o5) 106 MIRROR_BLOCK(%o0, %o1, 0xa0, %o2, %o3, %o4, %o5) 107 MIRROR_BLOCK(%o0, %o1, 0xc0, %o2, %o3, %o4, %o5) 108 MIRROR_BLOCK(%o0, %o1, 0xe0, %o2, %o3, %o4, %o5)
|
H A D | swift.S | 82 add %o4, 2048, %o5 83 add %o5, 2048, %g2 90 sta %g0, [%o0 + %o5] ASI_M_FLUSH_CTX 148 add %o4, 512, %o5 149 add %o5, 512, %g3 156 sta %g0, [%o1 + %o5] ASI_M_FLUSH_PAGE 194 add %o4, 512, %o5 195 add %o5, 512, %g3 202 sta %g0, [%o1 + %o5] ASI_M_FLUSH_PAGE
|