Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
affa209c3077dcfef6dfd544aa314f042e7ef98a
[simgrid.git] / src / xbt / mmalloc / mm_module.c
1 /* Initialization for acces s to a mmap'd malloc managed region. */
2
3 /* Copyright (c) 2012-2014. The SimGrid Team.
4  * All rights reserved.                                                     */
5
6 /* This program is free software; you can redistribute it and/or modify it
7  * under the terms of the license (GNU LGPL) which comes with this package. */
8
9 /* Copyright 1992, 2000 Free Software Foundation, Inc.
10
11    Contributed by Fred Fish at Cygnus Support.   fnf@cygnus.com
12
13    This file is part of the GNU C Library.
14
15    The GNU C Library is free software; you can redistribute it and/or
16    modify it under the terms of the GNU Library General Public License as
17    published by the Free Software Foundation; either version 2 of the
18    License, or (at your option) any later version.
19
20    The GNU C Library is distributed in the hope that it will be useful,
21    but WITHOUT ANY WARRANTY; without even the implied warranty of
22    MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
23    Library General Public License for more details.
24
25    You should have received a copy of the GNU Library General Public
26    License along with the GNU C Library; see the file COPYING.LIB.  If
27    not, write to the Free Software Foundation, Inc., 59 Temple Place - Suite 330,
28    Boston, MA 02111-1307, USA.  */
29
30 #include <sys/types.h>
31 #include <fcntl.h>              /* After sys/types.h, at least for dpx/2.  */
32 #include <sys/stat.h>
33 #include <string.h>
34 #ifdef HAVE_UNISTD_H
35 #include <unistd.h>             /* Prototypes for lseek */
36 #endif
37 #include "mmprivate.h"
38 #include "xbt/ex.h"
39 #include "xbt_modinter.h" /* declarations of mmalloc_preinit and friends that live here */
40
41 #ifndef SEEK_SET
42 #define SEEK_SET 0
43 #endif
44
45 /* Initialize access to a mmalloc managed region.
46
47    If FD is a valid file descriptor for an open file then data for the
48    mmalloc managed region is mapped to that file, otherwise an anonymous
49    map is used if supported by the underlying OS. In case of running in
50    an OS without support of anonymous mappings then "/dev/zero" is used 
51    and in both cases the data will not exist in any filesystem object.
52
53    If the open file corresponding to FD is from a previous use of
54    mmalloc and passes some basic sanity checks to ensure that it is
55    compatible with the current mmalloc package, then its data is
56    mapped in and is immediately accessible at the same addresses in
57    the current process as the process that created the file (ignoring
58    the BASEADDR parameter).
59
60    For non valid FDs or empty files ones the mapping is established 
61    starting at the specified address BASEADDR in the process address 
62    space.
63
64    The provided BASEADDR should be choosed carefully in order to avoid
65    bumping into existing mapped regions or future mapped regions.
66
67    On success, returns a "malloc descriptor" which is used in subsequent
68    calls to other mmalloc package functions.  It is explicitly "void *"
69    so that users of the package don't have to worry about the actual
70    implementation details.
71
72    On failure returns NULL. */
73
74 xbt_mheap_t xbt_mheap_new(int fd, void *baseaddr)
75 {
76   return xbt_mheap_new_options(fd, baseaddr, 0);
77 }
78
79 xbt_mheap_t xbt_mheap_new_options(int fd, void *baseaddr, int options)
80 {
81   struct mdesc mtemp;
82   xbt_mheap_t mdp;
83   void *mbase;
84   struct stat sbuf;
85
86   /* First check to see if FD is a valid file descriptor, and if so, see
87      if the file has any current contents (size > 0).  If it does, then
88      attempt to reuse the file.  If we can't reuse the file, either
89      because it isn't a valid mmalloc produced file, was produced by an
90      obsolete version, or any other reason, then we fail to attach to
91      this file. */
92
93   if (fd >= 0) {
94     if (fstat(fd, &sbuf) < 0)
95       return (NULL);
96
97     else if (sbuf.st_size > 0) {
98       /* We were given an valid file descriptor on an open file, so try to remap
99          it into the current process at the same address to which it was previously
100          mapped. It naturally have to pass some sanity checks for that.
101
102          Note that we have to update the file descriptor number in the malloc-
103          descriptor read from the file to match the current valid one, before
104          trying to map the file in, and again after a successful mapping and
105          after we've switched over to using the mapped in malloc descriptor
106          rather than the temporary one on the stack.
107
108          Once we've switched over to using the mapped in malloc descriptor, we
109          have to update the pointer to the morecore function, since it almost
110          certainly will be at a different address if the process reusing the
111          mapped region is from a different executable.
112
113          Also note that if the heap being remapped previously used the mmcheckf()
114          routines, we need to update the hooks since their target functions
115          will have certainly moved if the executable has changed in any way.
116          We do this by calling mmcheckf() internally.
117
118          Returns a pointer to the malloc descriptor if successful, or NULL if
119          unsuccessful for some reason. */
120
121       struct mdesc newmd;
122       struct mdesc *mdptr = NULL, *mdptemp = NULL;
123
124       if (lseek(fd, 0L, SEEK_SET) != 0)
125         return NULL;
126       if (read(fd, (char *) &newmd, sizeof(newmd)) != sizeof(newmd))
127         return NULL;
128       if (newmd.headersize != sizeof(newmd))
129         return NULL;
130       if (strcmp(newmd.magic, MMALLOC_MAGIC) != 0)
131         return NULL;
132       if (newmd.version > MMALLOC_VERSION)
133         return NULL;
134
135       newmd.fd = fd;
136       if (__mmalloc_remap_core(&newmd) == newmd.base) {
137         mdptr = (struct mdesc *) newmd.base;
138         mdptr->fd = fd;
139         if(!mdptr->refcount){
140           sem_init(&mdptr->sem, 0, 1);
141           mdptr->refcount++;
142         }
143       }
144
145       /* Add the new heap to the linked list of heaps attached by mmalloc */
146       mdptemp = __mmalloc_default_mdp;
147       while(mdptemp->next_mdesc)
148         mdptemp = mdptemp->next_mdesc;
149
150       LOCK(mdptemp);
151       mdptemp->next_mdesc = mdptr;
152       UNLOCK(mdptemp);
153
154       return mdptr;
155     }
156   }
157
158   /* NULL is not a valid baseaddr as we cannot map anything there.
159      C'mon, user. Think! */
160   if (baseaddr == NULL)
161     return (NULL);
162
163   /* We start off with the malloc descriptor allocated on the stack, until
164      we build it up enough to call _mmalloc_mmap_morecore() to allocate the
165      first page of the region and copy it there.  Ensure that it is zero'd and
166      then initialize the fields that we know values for. */
167
168   mdp = &mtemp;
169   memset((char *) mdp, 0, sizeof(mtemp));
170   strncpy(mdp->magic, MMALLOC_MAGIC, MMALLOC_MAGIC_SIZE);
171   mdp->headersize = sizeof(mtemp);
172   mdp->version = MMALLOC_VERSION;
173   mdp->fd = fd;
174   mdp->base = mdp->breakval = mdp->top = baseaddr;
175   mdp->next_mdesc = NULL;
176   mdp->refcount = 1;
177   mdp->options = options;
178   
179   /* If we have not been passed a valid open file descriptor for the file
180      to map to, then we go for an anonymous map */
181
182   if (mdp->fd < 0){
183     mdp->flags |= MMALLOC_ANONYMOUS;
184   }
185   sem_init(&mdp->sem, 0, 1);
186   
187   /* If we have not been passed a valid open file descriptor for the file
188      to map to, then open /dev/zero and use that to map to. */
189
190   /* Now try to map in the first page, copy the malloc descriptor structure
191      there, and arrange to return a pointer to this new copy.  If the mapping
192      fails, then close the file descriptor if it was opened by us, and arrange
193      to return a NULL. */
194
195   if ((mbase = mmorecore(mdp, sizeof(mtemp))) != NULL) {
196     memcpy(mbase, mdp, sizeof(mtemp));
197   } else {
198     fprintf(stderr, "morecore failed to get some more memory!\n");
199     abort();
200   }
201
202   /* Add the new heap to the linked list of heaps attached by mmalloc */  
203   if(__mmalloc_default_mdp){
204     mdp = __mmalloc_default_mdp;
205     while(mdp->next_mdesc)
206       mdp = mdp->next_mdesc;
207
208     LOCK(mdp);
209     mdp->next_mdesc = (struct mdesc *)mbase;
210     UNLOCK(mdp);
211   }
212
213   return mbase;
214 }
215
216
217
218 /** Terminate access to a mmalloc managed region, but do not free its content.
219  *
220  * This is for example useful for the base region where ldl stores its data
221  *   because it leaves the place after us.
222  */
223 void xbt_mheap_destroy_no_free(xbt_mheap_t md)
224 {
225   struct mdesc *mdp = md;
226
227   if(--mdp->refcount == 0){
228     LOCK(mdp) ;
229     sem_destroy(&mdp->sem);
230   }
231 }
232
233 /** Terminate access to a mmalloc managed region by unmapping all memory pages
234     associated with the region, and closing the file descriptor if it is one
235     that we opened.
236
237     Returns NULL on success.
238
239     Returns the malloc descriptor on failure, which can subsequently be used
240     for further action, such as obtaining more information about the nature of
241     the failure.
242
243     Note that the malloc descriptor that we are using is currently located in
244     region we are about to unmap, so we first make a local copy of it on the
245     stack and use the copy. */
246
247 void *xbt_mheap_destroy(xbt_mheap_t mdp)
248 {
249   struct mdesc mtemp, *mdptemp;
250
251   if (mdp != NULL) {
252     /* Remove the heap from the linked list of heaps attached by mmalloc */
253     mdptemp = __mmalloc_default_mdp;
254     while(mdptemp->next_mdesc != mdp )
255       mdptemp = mdptemp->next_mdesc;
256
257     mdptemp->next_mdesc = mdp->next_mdesc;
258
259     xbt_mheap_destroy_no_free(mdp);
260     mtemp = *mdp;
261
262     /* Now unmap all the pages associated with this region by asking for a
263        negative increment equal to the current size of the region. */
264
265     if (mmorecore(&mtemp, (char *)mtemp.base - (char *)mtemp.breakval) == NULL) {
266       /* Deallocating failed.  Update the original malloc descriptor
267          with any changes */
268       *mdp = mtemp;
269     } else {
270       if (mtemp.flags & MMALLOC_DEVZERO) {
271         close(mtemp.fd);
272       }
273       mdp = NULL;
274     }
275   }
276
277   return (mdp);
278 }
279
280 /* Safety gap from the heap's break address.
281  * Try to increase this first if you experience strange errors under
282  * valgrind. */
283 #define HEAP_OFFSET   (128UL<<20)
284
285 xbt_mheap_t mmalloc_get_default_md(void)
286 {
287   xbt_assert(__mmalloc_default_mdp);
288   return __mmalloc_default_mdp;
289 }
290
291 static void mmalloc_fork_prepare(void)
292 {
293   xbt_mheap_t mdp = NULL;
294   if ((mdp =__mmalloc_default_mdp)){
295     while(mdp){
296       LOCK(mdp);
297       if(mdp->fd >= 0){
298         mdp->refcount++;
299       }
300       mdp = mdp->next_mdesc;
301     }
302   }
303 }
304
305 static void mmalloc_fork_parent(void)
306 {
307   xbt_mheap_t mdp = NULL;
308   if ((mdp =__mmalloc_default_mdp)){
309     while(mdp){
310       if(mdp->fd < 0)
311         UNLOCK(mdp);
312       mdp = mdp->next_mdesc;
313     }
314   }
315 }
316
317 static void mmalloc_fork_child(void)
318 {
319   struct mdesc* mdp = NULL;
320   if ((mdp =__mmalloc_default_mdp)){
321     while(mdp){
322       UNLOCK(mdp);
323       mdp = mdp->next_mdesc;
324     }
325   }
326 }
327
328 /* Initialize the default malloc descriptor. */
329 void *mmalloc_preinit(void)
330 {
331   int res;
332   if (__mmalloc_default_mdp == NULL) {
333     if(!xbt_pagesize)
334       xbt_pagesize = getpagesize();
335     unsigned long mask = ~((unsigned long)xbt_pagesize - 1);
336     void *addr = (void*)(((unsigned long)sbrk(0) + HEAP_OFFSET) & mask);
337     __mmalloc_default_mdp = xbt_mheap_new_options(-1, addr, XBT_MHEAP_OPTION_MEMSET);
338     /* Fixme? only the default mdp in protected against forks */
339     // This is mandated to protect the mmalloced areas through forks. Think of tesh.
340     // Nah, removing the mutex isn't a good idea either for tesh
341     res = xbt_os_thread_atfork(mmalloc_fork_prepare,  
342                                mmalloc_fork_parent, mmalloc_fork_child);
343     if (res != 0)
344       THROWF(system_error,0,"xbt_os_thread_atfork() failed: return value %d",res);
345   }
346   xbt_assert(__mmalloc_default_mdp != NULL);
347
348 #if 0 && defined(HAVE_GNU_LD) && defined(MMALLOC_WANT_OVERRIDE_LEGACY)
349   mm_gnuld_legacy_init();
350 #endif
351
352   return __mmalloc_default_mdp;
353 }
354
355 void mmalloc_postexit(void)
356 {
357   /* Do not destroy the default mdp or ldl won't be able to free the memory it
358    * allocated since we're in memory */
359   // xbt_mheap_destroy_no_free(__mmalloc_default_mdp);
360 }
361
362 size_t mmalloc_get_bytes_used(xbt_mheap_t heap){
363   int i = 0, j = 0;
364   int bytes = 0;
365   
366   while(i<=((struct mdesc *)heap)->heaplimit){
367     if(((struct mdesc *)heap)->heapinfo[i].type == MMALLOC_TYPE_UNFRAGMENTED){
368       if(((struct mdesc *)heap)->heapinfo[i].busy_block.busy_size > 0)
369         bytes += ((struct mdesc *)heap)->heapinfo[i].busy_block.busy_size;
370      
371     } else if(((struct mdesc *)heap)->heapinfo[i].type > 0){
372       for(j=0; j < (size_t) (BLOCKSIZE >> ((struct mdesc *)heap)->heapinfo[i].type); j++){
373         if(((struct mdesc *)heap)->heapinfo[i].busy_frag.frag_size[j] > 0)
374           bytes += ((struct mdesc *)heap)->heapinfo[i].busy_frag.frag_size[j];
375       }
376     }
377     i++; 
378   }
379
380   return bytes;
381 }
382
383 ssize_t mmalloc_get_busy_size(xbt_mheap_t heap, void *ptr){
384
385   ssize_t block = ((char*)ptr - (char*)(heap->heapbase)) / BLOCKSIZE + 1;
386   if(heap->heapinfo[block].type < 0)
387     return -1;
388   else if(heap->heapinfo[block].type == MMALLOC_TYPE_UNFRAGMENTED)
389     return heap->heapinfo[block].busy_block.busy_size;
390   else{
391     ssize_t frag = ((uintptr_t) (ADDR2UINT (ptr) % (BLOCKSIZE))) >> heap->heapinfo[block].type;
392     return heap->heapinfo[block].busy_frag.frag_size[frag];
393   }
394     
395 }
396
397 void mmcheck(xbt_mheap_t heap) {return;
398   if (!heap->heapinfo)
399     return;
400   malloc_info* heapinfo = NULL;
401   for (size_t i=1; i < heap->heaplimit; i += mmalloc_get_increment(heapinfo)) {
402     heapinfo = heap->heapinfo + i;
403     switch (heapinfo->type) {
404     case MMALLOC_TYPE_HEAPINFO:
405     case MMALLOC_TYPE_FREE:
406       if (heapinfo->free_block.size==0) {
407         xbt_die("Block size == 0");
408       }
409       break;
410     case MMALLOC_TYPE_UNFRAGMENTED:
411       if (heapinfo->busy_block.size==0) {
412         xbt_die("Block size == 0");
413       }
414       if (heapinfo->busy_block.busy_size==0 && heapinfo->busy_block.size!=0) {
415         xbt_die("Empty busy block");
416       }
417       break;
418     default:
419       if (heapinfo->type<0) {
420         xbt_die("Unkown mmalloc block type.");
421       }
422     }
423   }
424 }