/freebsd/contrib/jemalloc/include/jemalloc/internal/ |
H A D | sz.h | 120 static inline szind_t 131 szind_t lg_tmin = SC_LG_TINY_MAXCLASS - SC_NTINY + 1; in sz_size2index_compute() 132 szind_t lg_ceil = lg_floor(pow2_ceil_zu(size)); in sz_size2index_compute() 137 szind_t x = lg_floor((size<<1)-1); in sz_size2index_compute() 138 szind_t shift = (x < SC_LG_NGROUP + LG_QUANTUM) ? 0 : in sz_size2index_compute() 140 szind_t grp = shift << SC_LG_NGROUP; in sz_size2index_compute() 142 szind_t lg_delta = (x < SC_LG_NGROUP + LG_QUANTUM + 1) in sz_size2index_compute() 146 szind_t mod = ((((size-1) & delta_inverse_mask) >> lg_delta)) & in sz_size2index_compute() 149 szind_t index = SC_NTINY + grp + mod; in sz_size2index_compute() 154 JEMALLOC_ALWAYS_INLINE szind_t [all …]
|
H A D | rtree.h | 198 JEMALLOC_ALWAYS_INLINE szind_t 200 return (szind_t)(bits >> LG_VADDR); in rtree_leaf_elm_bits_szind_get() 223 JEMALLOC_ALWAYS_INLINE szind_t 230 return (szind_t)atomic_load_u(&elm->le_szind, dependent ? ATOMIC_RELAXED in rtree_leaf_elm_szind_read() 263 rtree_leaf_elm_t *elm, szind_t szind) { in rtree_leaf_elm_szind_write() 296 rtree_leaf_elm_t *elm, extent_t *extent, szind_t szind, bool slab) { in rtree_leaf_elm_write() 315 rtree_leaf_elm_t *elm, szind_t szind, bool slab) { in rtree_leaf_elm_szind_slab_update() 387 extent_t *extent, szind_t szind, bool slab) { in rtree_write() 426 JEMALLOC_ALWAYS_INLINE szind_t 444 uintptr_t key, bool dependent, extent_t **r_extent, szind_t *r_szind) { in rtree_extent_szind_read() [all …]
|
H A D | arena_inlines_b.h | 159 arena_malloc(tsdn_t *tsdn, arena_t *arena, size_t size, szind_t ind, bool zero, in arena_malloc() 191 szind_t szind = rtree_szind_read(tsdn, &extents_rtree, rtree_ctx, in arena_salloc() 213 szind_t szind; in arena_vsalloc() 232 arena_dalloc_large_no_tcache(tsdn_t *tsdn, void *ptr, szind_t szind) { in arena_dalloc_large_no_tcache() 248 szind_t szind; in arena_dalloc_no_tcache() 270 arena_dalloc_large(tsdn_t *tsdn, void *ptr, tcache_t *tcache, szind_t szind, in arena_dalloc_large() 296 szind_t szind; in arena_dalloc() 332 szind_t szind; in arena_sdalloc_no_tcache() 382 szind_t szind; in arena_sdalloc()
|
H A D | tcache_externs.h | 31 cache_bin_t *tbin, szind_t binind, bool *tcache_success); 33 szind_t binind, unsigned rem); 34 void tcache_bin_flush_large(tsd_t *tsd, cache_bin_t *tbin, szind_t binind,
|
H A D | arena_externs.h | 33 size_t arena_slab_regind(extent_t *slab, szind_t binind, const void *ptr); 52 cache_bin_t *tbin, szind_t binind, uint64_t prof_accumbytes); 60 szind_t ind, bool zero); 67 szind_t binind, extent_t *extent, void *ptr); 90 bin_t *arena_bin_choose_lock(tsdn_t *tsdn, arena_t *arena, szind_t binind,
|
H A D | extent_externs.h | 40 size_t size, size_t pad, size_t alignment, bool slab, szind_t szind, 51 size_t alignment, bool slab, szind_t szind, bool *zero, bool *commit); 71 szind_t szind_a, bool slab_a, size_t size_b, szind_t szind_b, bool slab_b);
|
H A D | extent_inlines.h | 54 static inline szind_t 56 szind_t szind = (szind_t)((extent->e_bits & EXTENT_BITS_SZIND_MASK) >> in extent_szind_get_maybe_invalid() 62 static inline szind_t 64 szind_t szind = extent_szind_get_maybe_invalid(extent); in extent_szind_get() 259 extent_szind_set(extent_t *extent, szind_t szind) { in extent_szind_set() 368 bool slab, szind_t szind, size_t sn, extent_state_t state, bool zeroed, in extent_init()
|
H A D | tcache_inlines.h | 43 size_t size, szind_t binind, bool zero, bool slow_path) { in tcache_alloc_small() 105 szind_t binind, bool zero, bool slow_path) { in tcache_alloc_large() 164 tcache_dalloc_small(tsd_t *tsd, tcache_t *tcache, void *ptr, szind_t binind, in tcache_dalloc_small() 189 tcache_dalloc_large(tsd_t *tsd, tcache_t *tcache, void *ptr, szind_t binind, in tcache_dalloc_large()
|
H A D | jemalloc_internal_inlines_a.h | 112 tcache_small_bin_get(tcache_t *tcache, szind_t binind) { in tcache_small_bin_get() 118 tcache_large_bin_get(tcache_t *tcache, szind_t binind) { in tcache_large_bin_get()
|
H A D | tcache_structs.h | 51 szind_t next_gc_bin;
|
H A D | arena_structs_b.h | 228 szind_t szind;
|
H A D | jemalloc_internal_inlines_c.h | 42 iallocztm(tsdn_t *tsdn, size_t size, szind_t ind, bool zero, tcache_t *tcache, in iallocztm() 61 ialloc(tsd_t *tsd, size_t size, szind_t ind, bool zero, bool slow_path) { in ialloc()
|
H A D | jemalloc_internal_types.h | 10 typedef unsigned szind_t; typedef
|
H A D | arena_stats.h | 256 szind_t szind, uint64_t nrequests) { in arena_stats_large_flush_nrequests_add()
|
/freebsd/contrib/jemalloc/src/ |
H A D | arena.c | 138 for (szind_t i = 0; i < SC_NSIZES - SC_NBINS; i++) { in arena_stats_merge() 202 szind_t i = 0; in arena_stats_merge() 247 for (szind_t i = 0; i < SC_NBINS; i++) { in arena_stats_merge() 338 arena_slab_regind(extent_t *slab, szind_t binind, const void *ptr) { in arena_slab_regind() 360 szind_t binind = extent_szind_get(slab); in arena_slab_reg_dalloc() 385 szind_t index, hindex; in arena_large_malloc_stats_update() 401 szind_t index, hindex; in arena_large_dalloc_stats_update() 435 szind_t szind = sz_size2index(usize); in arena_extent_alloc_large() 1208 szind_t szind) { in arena_slab_alloc_hard() 1229 arena_slab_alloc(tsdn_t *tsdn, arena_t *arena, szind_t binind, unsigned binshard, in arena_slab_alloc() [all …]
|
H A D | bin.c | 44 szind_t ind1 = sz_size2index_compute(start_size); in bin_update_shard_size() 45 szind_t ind2 = sz_size2index_compute(end_size); in bin_update_shard_size()
|
H A D | extent.c | 58 szind_t szind_a, bool slab_a, size_t size_b, szind_t szind_b, bool slab_b, 105 size_t usize, size_t pad, size_t alignment, bool slab, szind_t szind, 539 size_t alignment, bool slab, szind_t szind, bool *zero, bool *commit) { in extents_alloc() 722 rtree_leaf_elm_t *elm_b, extent_t *extent, szind_t szind, bool slab) { in extent_rtree_write_acquired() 732 szind_t szind) { in extent_interior_register() 798 szind_t szind = extent_szind_get_maybe_invalid(extent); in extent_register_impl() 987 szind_t szind, bool growing_retained) { in extent_split_interior() 1060 szind_t szind, extent_t *extent, bool growing_retained) { in extent_recycle_split() 1130 size_t alignment, bool slab, szind_t szind, bool *zero, bool *commit, in extent_recycle() 1299 bool slab, szind_t szind, bool *zero, bool *commit) { in extent_grow_retained() [all …]
|
H A D | tcache.c | 42 szind_t binind = tcache->next_gc_bin; in tcache_event_hard() 90 cache_bin_t *tbin, szind_t binind, bool *tcache_success) { in tcache_alloc_small_hard() 106 tbin_extents_lookup_size_check(tsdn_t *tsdn, cache_bin_t *tbin, szind_t binind, in tbin_extents_lookup_size_check() 117 szind_t szind; in tbin_extents_lookup_size_check() 135 szind_t binind, unsigned rem) { in tcache_bin_flush_small() 230 tcache_bin_flush_large(tsd_t *tsd, cache_bin_t *tbin, szind_t binind, in tcache_bin_flush_large()
|
H A D | base.c | 205 szind_t index_floor = in base_extent_bump_alloc_post() 375 for (szind_t i = 0; i < SC_NSIZES; i++) { in base_new() 429 for (szind_t i = sz_size2index(asize); i < SC_NSIZES; i++) { in base_alloc_impl()
|
H A D | large.c | 181 szind_t szind = sz_size2index(usize); in large_ralloc_no_move_expand()
|
H A D | jemalloc.c | 1917 size_t size, size_t usize, szind_t ind) { in imalloc_no_sample() 1959 size_t usize, szind_t ind) { in imalloc_sample() 1966 szind_t ind_large; in imalloc_sample() 2046 szind_t ind = 0; in imalloc_body() 2345 szind_t ind = sz_size2index_lookup(size); in JEMALLOC_ATTR()
|
H A D | ctl.c | 2570 CTL_RO_NL_GEN(arenas_lextent_i_size, sz_index2size(SC_NBINS+(szind_t)mib[2]), 2996 for (szind_t i = 0; i < SC_NBINS; i++) { in stats_mutexes_reset_ctl()
|
/freebsd/contrib/jemalloc/ |
H A D | ChangeLog | 812 + Rename index_t to szind_t to avoid an existing type on Solaris.
|