Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
46da29a4da5d700ff3d7783fef5fe7cf801d656b
[simgrid.git] / src / xbt / mmalloc / mmalloc.c
1 /* Memory allocator `malloc'. */
2
3 /* Copyright (c) 2010-2019. The SimGrid Team. All rights reserved.          */
4
5 /* This program is free software; you can redistribute it and/or modify it
6  * under the terms of the license (GNU LGPL) which comes with this package. */
7
8 /* Copyright 1990, 1991, 1992 Free Software Foundation
9
10    Written May 1989 by Mike Haertel.
11    Heavily modified Mar 1992 by Fred Fish for mmap'd version. */
12
13 #include <string.h>             /* Prototypes for memcpy, memmove, memset, etc */
14 #include <stdio.h>
15 #include "mmprivate.h"
16
17 /* Prototypes for local functions */
18
19 static void initialize(xbt_mheap_t mdp);
20 static void *register_morecore(xbt_mheap_t mdp, size_t size);
21 static void *align(xbt_mheap_t mdp, size_t size);
22
23 /* Allocation aligned on block boundary.
24  *
25  * It never returns NULL, but dies verbosely on error.
26  */
27 static void *align(struct mdesc *mdp, size_t size)
28 {
29   void *result;
30   unsigned long int adj;
31
32   result = mmorecore(mdp, size);
33
34   /* if this reservation does not fill up the last block of our resa,
35    * complete the reservation by also asking for the full latest block.
36    *
37    * Also, the returned block is aligned to the end of block (but I've
38    * no fucking idea of why, actually -- http://abstrusegoose.com/432 --
39    * but not doing so seems to lead to issues).
40    */
41   adj = RESIDUAL(result, BLOCKSIZE);
42   if (adj != 0) {
43     adj = BLOCKSIZE - adj;
44     mmorecore(mdp, adj);
45     result = (char *) result + adj;
46   }
47   return (result);
48 }
49
50 /** Initialise heapinfo about the heapinfo pages :)
51  *
52  */
53 static void initialize_heapinfo_heapinfo(xbt_mheap_t mdp)
54 {
55   // Update heapinfo about the heapinfo pages (!):
56   xbt_assert((uintptr_t) mdp->heapinfo % BLOCKSIZE == 0);
57   int block = BLOCK(mdp->heapinfo);
58   size_t nblocks = mdp->heapsize * sizeof(malloc_info) / BLOCKSIZE;
59   // Mark them as free:
60   for (size_t j=0; j!=nblocks; ++j) {
61     mdp->heapinfo[block+j].type = MMALLOC_TYPE_FREE;
62     mdp->heapinfo[block+j].free_block.size = 0;
63     mdp->heapinfo[block+j].free_block.next = 0;
64     mdp->heapinfo[block+j].free_block.prev = 0;
65   }
66   mdp->heapinfo[block].free_block.size = nblocks;
67 }
68
69 /* Finish the initialization of the mheap. If we want to inline it
70  * properly, we need to make the align function publicly visible, too  */
71 static void initialize(xbt_mheap_t mdp)
72 {
73   int i;
74   malloc_info mi; /* to compute the offset of the swag hook */
75
76   // Update mdp meta-data:
77   mdp->heapsize = HEAP / BLOCKSIZE;
78   mdp->heapinfo = (malloc_info *)
79     align(mdp, mdp->heapsize * sizeof(malloc_info));
80   mdp->heapbase = (void *) mdp->heapinfo;
81   mdp->flags |= MMALLOC_INITIALIZED;
82
83   // Update root heapinfo:
84   memset((void *) mdp->heapinfo, 0, mdp->heapsize * sizeof(malloc_info));
85   mdp->heapinfo[0].type = MMALLOC_TYPE_FREE;
86   mdp->heapinfo[0].free_block.size = 0;
87   mdp->heapinfo[0].free_block.next = mdp->heapinfo[0].free_block.prev = 0;
88   mdp->heapindex = 0;
89
90   initialize_heapinfo_heapinfo(mdp);
91
92   for (i=0;i<BLOCKLOG;i++) {
93       xbt_swag_init(&(mdp->fraghead[i]),
94                     xbt_swag_offset(mi, freehook));
95   }
96 }
97
98 static inline void update_hook(void **a, size_t offset)
99 {
100   if (*a)
101     *a = (char*)*a + offset;
102 }
103
104 /* Get neatly aligned memory from the low level layers, and register it
105  * into the heap info table as necessary. */
106 static void *register_morecore(struct mdesc *mdp, size_t size)
107 {
108   void* result = align(mdp, size); // Never returns NULL
109
110   /* Check if we need to grow the info table (in a multiplicative manner)  */
111   if ((size_t) BLOCK((char *) result + size) > mdp->heapsize) {
112     int it;
113
114     size_t newsize = mdp->heapsize;
115     while ((size_t) BLOCK((char *) result + size) > newsize)
116       newsize *= 2;
117
118     /* Copy old info into new location */
119     malloc_info* oldinfo = mdp->heapinfo;
120     malloc_info* newinfo = (malloc_info*)align(mdp, newsize * sizeof(malloc_info));
121     memcpy(newinfo, oldinfo, mdp->heapsize * sizeof(malloc_info));
122
123     /* Initialise the new blockinfo : */
124     memset((char*) newinfo + mdp->heapsize * sizeof(malloc_info), 0,
125       (newsize - mdp->heapsize)* sizeof(malloc_info));
126
127     /* Update the swag of busy blocks containing free fragments by applying the offset to all swag_hooks. Yeah. My hand is right in the fan and I still type */
128     size_t offset=((char*)newinfo)-((char*)oldinfo);
129
130     for (int i = 1 /*first element of heapinfo describes the mdesc area*/; i < mdp->heaplimit; i++) {
131       update_hook(&newinfo[i].freehook.next, offset);
132       update_hook(&newinfo[i].freehook.prev, offset);
133     }
134     // also update the starting points of the swag
135     for (int i = 0; i < BLOCKLOG; i++) {
136       update_hook(&mdp->fraghead[i].head, offset);
137       update_hook(&mdp->fraghead[i].tail, offset);
138     }
139     mdp->heapinfo = newinfo;
140
141     /* mark the space previously occupied by the block info as free by first marking it
142      * as occupied in the regular way, and then freing it */
143     for (it=0; it<BLOCKIFY(mdp->heapsize * sizeof(malloc_info)); it++){
144       newinfo[BLOCK(oldinfo)+it].type = MMALLOC_TYPE_UNFRAGMENTED;
145       newinfo[BLOCK(oldinfo)+it].busy_block.ignore = 0;
146     }
147
148     newinfo[BLOCK(oldinfo)].busy_block.size = BLOCKIFY(mdp->heapsize * sizeof(malloc_info));
149     newinfo[BLOCK(oldinfo)].busy_block.busy_size = size;
150     mfree(mdp, (void *) oldinfo);
151     mdp->heapsize = newsize;
152
153     initialize_heapinfo_heapinfo(mdp);
154   }
155
156   mdp->heaplimit = BLOCK((char *) result + size);
157   return (result);
158 }
159
160 /* Allocate memory from the heap.  */
161 void *mmalloc(xbt_mheap_t mdp, size_t size) {
162   void *res= mmalloc_no_memset(mdp,size);
163   if (mdp->options & XBT_MHEAP_OPTION_MEMSET) {
164     memset(res,0,size);
165   }
166   return res;
167 }
168
169 static void mmalloc_mark_used(xbt_mheap_t mdp, size_t block, size_t nblocks, size_t requested_size)
170 {
171   for (int it = 0; it < nblocks; it++) {
172     mdp->heapinfo[block + it].type                 = MMALLOC_TYPE_UNFRAGMENTED;
173     mdp->heapinfo[block + it].busy_block.busy_size = 0;
174     mdp->heapinfo[block + it].busy_block.ignore    = 0;
175     mdp->heapinfo[block + it].busy_block.size      = 0;
176   }
177   mdp->heapinfo[block].busy_block.size      = nblocks;
178   mdp->heapinfo[block].busy_block.busy_size = requested_size;
179   mdp->heapstats.chunks_used++;
180   mdp->heapstats.bytes_used += nblocks * BLOCKSIZE;
181 }
182
183 /* Spliting mmalloc this way is mandated by a trick in mrealloc, that gives
184    back the memory of big blocks to the system before reallocating them: we don't
185    want to loose the beginning of the area when this happens */
186 void *mmalloc_no_memset(xbt_mheap_t mdp, size_t size)
187 {
188   void *result;
189   size_t block;
190
191   size_t requested_size = size; // The amount of memory requested by user, for real
192
193   /* Work even if the user was stupid enough to ask a ridiculously small block (even 0-length),
194    *    ie return a valid block that can be realloced and freed.
195    * glibc malloc does not use this trick but return a constant pointer, but we need to enlist the free fragments later on.
196    */
197   if (size < SMALLEST_POSSIBLE_MALLOC)
198     size = SMALLEST_POSSIBLE_MALLOC;
199
200   //  printf("(%s) Mallocing %d bytes on %p (default: %p)...",xbt_thread_self_name(),size,mdp,__mmalloc_default_mdp);fflush(stdout);
201
202   if (!(mdp->flags & MMALLOC_INITIALIZED))
203     initialize(mdp);
204
205   /* Determine the allocation policy based on the request size.  */
206   if (size <= BLOCKSIZE / 2) {
207     /* Small allocation to receive a fragment of a block.
208        Determine the logarithm to base two of the fragment size. */
209     size_t log = 1;
210     --size;
211     while ((size /= 2) != 0) {
212       ++log;
213     }
214
215     /* Look in the fragment lists for a free fragment of the desired size. */
216     if (xbt_swag_size(&mdp->fraghead[log])>0) {
217       /* There are free fragments of this size; Get one of them and prepare to return it.
218          Update the block's nfree and if no other free fragment, get out of the swag. */
219
220       /* search a fragment that I could return as a result */
221       malloc_info *candidate_info = xbt_swag_getFirst(&mdp->fraghead[log]);
222       size_t candidate_block = (candidate_info - &(mdp->heapinfo[0]));
223       size_t candidate_frag;
224       for (candidate_frag=0;candidate_frag<(size_t) (BLOCKSIZE >> log);candidate_frag++)
225         if (candidate_info->busy_frag.frag_size[candidate_frag] == -1)
226           break;
227       xbt_assert(candidate_frag < (size_t) (BLOCKSIZE >> log),
228           "Block %zu was registered as containing free fragments of type %zu, but I can't find any",candidate_block,log);
229
230       result = (void*) (((char*)ADDRESS(candidate_block)) + (candidate_frag << log));
231
232       /* Remove this fragment from the list of free guys */
233       candidate_info->busy_frag.nfree--;
234       if (candidate_info->busy_frag.nfree == 0) {
235         xbt_swag_remove(candidate_info,&mdp->fraghead[log]);
236       }
237
238       /* Update our metadata about this fragment */
239       candidate_info->busy_frag.frag_size[candidate_frag] = requested_size;
240       candidate_info->busy_frag.ignore[candidate_frag] = 0;
241
242       /* Update the statistics.  */
243       mdp -> heapstats.chunks_used++;
244       mdp -> heapstats.bytes_used += 1 << log;
245       mdp -> heapstats.chunks_free--;
246       mdp -> heapstats.bytes_free -= 1 << log;
247
248     } else {
249       /* No free fragments of the desired size, so get a new block
250          and break it into fragments, returning the first.  */
251
252       result = mmalloc(mdp, BLOCKSIZE); // does not return NULL
253       block = BLOCK(result);
254
255       mdp->heapinfo[block].type = log;
256       /* Link all fragments but the first as free, and add the block to the swag of blocks containing free frags  */
257       size_t i;
258       for (i = 1; i < (size_t) (BLOCKSIZE >> log); ++i) {
259         mdp->heapinfo[block].busy_frag.frag_size[i] = -1;
260         mdp->heapinfo[block].busy_frag.ignore[i] = 0;
261       }
262       mdp->heapinfo[block].busy_frag.nfree = i - 1;
263       mdp->heapinfo[block].freehook.prev = NULL;
264       mdp->heapinfo[block].freehook.next = NULL;
265
266       xbt_swag_insert(&mdp->heapinfo[block], &(mdp->fraghead[log]));
267
268       /* mark the fragment returned as busy */
269       mdp->heapinfo[block].busy_frag.frag_size[0] = requested_size;
270       mdp->heapinfo[block].busy_frag.ignore[0] = 0;
271
272       /* update stats */
273       mdp -> heapstats.chunks_free += (BLOCKSIZE >> log) - 1;
274       mdp -> heapstats.bytes_free += BLOCKSIZE - (1 << log);
275       mdp -> heapstats.bytes_used -= BLOCKSIZE - (1 << log);
276     }
277   } else {
278     /* Large allocation to receive one or more blocks.
279        Search the free list in a circle starting at the last place visited.
280        If we loop completely around without finding a large enough
281        space we will have to get more memory from the system.  */
282     size_t blocks = BLOCKIFY(size);
283     size_t start  = MALLOC_SEARCH_START;
284     block         = MALLOC_SEARCH_START;
285     while (mdp->heapinfo[block].free_block.size < blocks) {
286       if (mdp->heapinfo[block].type >=0) { // Don't trust xbt_die and friends in malloc-level library, you fool!
287         fprintf(stderr,"Internal error: found a free block not marked as such (block=%lu type=%lu). Please report this bug.\n",(unsigned long)block,(unsigned long)mdp->heapinfo[block].type);
288         abort();
289       }
290
291       block = mdp->heapinfo[block].free_block.next;
292       if (block == start) {
293         /* Need to get more from the system.  Check to see if
294            the new core will be contiguous with the final free
295            block; if so we don't need to get as much.  */
296         block = mdp->heapinfo[0].free_block.prev;
297         size_t lastblocks = mdp->heapinfo[block].free_block.size;
298         if (mdp->heaplimit != 0 &&
299             block + lastblocks == mdp->heaplimit &&
300             mmorecore(mdp, 0) == ADDRESS(block + lastblocks) &&
301             (register_morecore(mdp, (blocks - lastblocks) * BLOCKSIZE)) != NULL) {
302           /* Which block we are extending (the `final free
303              block' referred to above) might have changed, if
304              it got combined with a freed info table.  */
305           block = mdp->heapinfo[0].free_block.prev;
306
307           mdp->heapinfo[block].free_block.size += (blocks - lastblocks);
308           continue;
309         }
310         result = register_morecore(mdp, blocks * BLOCKSIZE);
311
312         block = BLOCK(result);
313         mmalloc_mark_used(mdp, block, blocks, requested_size);
314
315         return result;
316       }
317       /* Need large block(s), but found some in the existing heap */
318     }
319
320     /* At this point we have found a suitable free list entry.
321        Figure out how to remove what we need from the list. */
322     result = ADDRESS(block);
323     if (mdp->heapinfo[block].free_block.size > blocks) {
324       /* The block we found has a bit left over,
325          so relink the tail end back into the free list. */
326       mdp->heapinfo[block + blocks].free_block.size
327         = mdp->heapinfo[block].free_block.size - blocks;
328       mdp->heapinfo[block + blocks].free_block.next
329         = mdp->heapinfo[block].free_block.next;
330       mdp->heapinfo[block + blocks].free_block.prev
331         = mdp->heapinfo[block].free_block.prev;
332       mdp->heapinfo[mdp->heapinfo[block].free_block.prev].free_block.next
333         = mdp->heapinfo[mdp->heapinfo[block].free_block.next].free_block.prev
334         = mdp->heapindex = block + blocks;
335     } else {
336       /* The block exactly matches our requirements,
337          so just remove it from the list. */
338       mdp->heapinfo[mdp->heapinfo[block].free_block.next].free_block.prev
339         = mdp->heapinfo[block].free_block.prev;
340       mdp->heapinfo[mdp->heapinfo[block].free_block.prev].free_block.next
341         = mdp->heapindex = mdp->heapinfo[block].free_block.next;
342     }
343
344     mmalloc_mark_used(mdp, block, blocks, requested_size);
345     mdp -> heapstats.bytes_free -= blocks * BLOCKSIZE;
346
347   }
348   //printf("(%s) Done mallocing. Result is %p\n",xbt_thread_self_name(),result);fflush(stdout);
349
350   return (result);
351 }