Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
[mc] Comments/documentation of memory related code
[simgrid.git] / src / xbt / mmalloc / mmprivate.h
index 507a27d..dd3856a 100644 (file)
@@ -1,15 +1,16 @@
-/* Declarations for `mmalloc' and friends.
-   Copyright 1990, 1991, 1992 Free Software Foundation
+/* Declarations for `mmalloc' and friends. */
 
-   Written May 1989 by Mike Haertel.
-   Heavily modified Mar 1992 by Fred Fish. (fnf@cygnus.com) */
-
-/* Copyright (c) 2010. The SimGrid Team.
+/* Copyright (c) 2010-2014. The SimGrid Team.
  * All rights reserved.                                                     */
 
 /* This program is free software; you can redistribute it and/or modify it
  * under the terms of the license (GNU LGPL) which comes with this package. */
 
+/* Copyright 1990, 1991, 1992 Free Software Foundation
+
+   Written May 1989 by Mike Haertel.
+   Heavily modified Mar 1992 by Fred Fish. (fnf@cygnus.com) */
+
 #ifndef __MMPRIVATE_H
 #define __MMPRIVATE_H 1
 
@@ -17,6 +18,8 @@
 #include "xbt/xbt_os_thread.h"
 #include "xbt/mmalloc.h"
 #include "xbt/ex.h"
+#include "xbt/dynar.h"
+#include "xbt/swag.h"
 #include <semaphore.h>
 #include <stdint.h>
 
@@ -28,9 +31,9 @@
 #  endif
 #endif
 
-#define MMALLOC_MAGIC          "mmalloc"       /* Mapped file magic number */
-#define MMALLOC_MAGIC_SIZE     8       /* Size of magic number buf */
-#define MMALLOC_VERSION                2       /* Current mmalloc version */
+#define MMALLOC_MAGIC    "mmalloc"       /* Mapped file magic number */
+#define MMALLOC_MAGIC_SIZE  8       /* Size of magic number buf */
+#define MMALLOC_VERSION    2       /* Current mmalloc version */
 
 /* The allocator divides the heap into blocks of fixed size; large
    requests receive one or more whole blocks, and small requests
 
    FIXME: we are not targeting 16bits machines anymore; update values */
 
-#define INT_BIT                (CHAR_BIT * sizeof(int))
-#define BLOCKLOG       (INT_BIT > 16 ? 12 : 9)
-#define BLOCKSIZE      ((unsigned int) 1 << BLOCKLOG)
-#define BLOCKIFY(SIZE) (((SIZE) + BLOCKSIZE - 1) / BLOCKSIZE)
+#define INT_BIT    (CHAR_BIT * sizeof(int))
+#define BLOCKLOG  (INT_BIT > 16 ? 12 : 9)
+#define BLOCKSIZE  ((unsigned int) 1 << BLOCKLOG)
+#define BLOCKIFY(SIZE)  (((SIZE) + BLOCKSIZE - 1) / BLOCKSIZE)
 
 /* We keep fragment-specific meta-data for introspection purposes, and these
  * information are kept in fixed lenght arrays. Here is the computation of
@@ -53,7 +56,8 @@
  * need to enlist the free fragments.
  */
 
-#define SMALLEST_POSSIBLE_MALLOC (sizeof(struct list))
+//#define SMALLEST_POSSIBLE_MALLOC (sizeof(struct list))
+#define SMALLEST_POSSIBLE_MALLOC (16*sizeof(struct list))
 #define MAX_FRAGMENT_PER_BLOCK (BLOCKSIZE / SMALLEST_POSSIBLE_MALLOC)
 
 /* The difference between two pointers is a signed int.  On machines where
    sign of the result is machine dependent for negative values, so force
    it to be treated as an unsigned int. */
 
-#define ADDR2UINT(addr)        ((uintptr_t) ((char*) (addr) - (char*) NULL))
+#define ADDR2UINT(addr)  ((uintptr_t) ((char*) (addr) - (char*) NULL))
 #define RESIDUAL(addr,bsize) ((uintptr_t) (ADDR2UINT (addr) % (bsize)))
 
 /* Determine the amount of memory spanned by the initial heap table
    (not an absolute limit).  */
 
-#define HEAP           (INT_BIT > 16 ? 4194304 : 65536)
+#define HEAP    (INT_BIT > 16 ? 4194304 : 65536)
 
 /* Number of contiguous free blocks allowed to build up at the end of
    memory before they will be returned to the system.
    FIXME: this is not used anymore: we never return memory to the system. */
-#define FINAL_FREE_BLOCKS      8
+#define FINAL_FREE_BLOCKS  8
 
 /* Where to start searching the free list when looking for new memory.
    The two possible values are 0 and heapindex.  Starting at 0 seems
    to reduce total memory usage, while starting at heapindex seems to
    run faster.  */
 
-#define MALLOC_SEARCH_START    mdp -> heapindex
+#define MALLOC_SEARCH_START  mdp -> heapindex
 
 /* Address to block number and vice versa.  */
 
@@ -95,6 +99,29 @@ struct list {
   struct list *prev;
 };
 
+/* Statistics available to the user. */
+struct mstats
+{
+  size_t bytes_total;    /* Total size of the heap. */
+  size_t chunks_used;    /* Chunks allocated by the user. */
+  size_t bytes_used;    /* Byte total of user-allocated chunks. */
+  size_t chunks_free;    /* Chunks in the free list. */
+  size_t bytes_free;    /* Byte total of chunks in the free list. */
+};
+
+typedef struct s_heap_area{
+  int valid;
+  int block;
+  int fragment;
+}s_heap_area_t, *heap_area_t;
+
+typedef struct s_heap_area_pair{
+  int block1;
+  int fragment1;
+  int block2;
+  int fragment2;
+}s_heap_area_pair_t, *heap_area_pair_t;
+
 /* Data structure giving per-block information.
  *
  * There is one such structure in the mdp->heapinfo array per block used in that heap,
@@ -118,26 +145,27 @@ struct list {
  * The type field is consistently updated for every blocks, even within clusters of blocks.
  * You can crawl the array and rely on that value.
  *
- * TODO:
- *  - make room to store the backtrace of where the blocks and fragment were malloced, too.
  */
 typedef struct {
+  s_xbt_swag_hookup_t freehook; /* to register this block as having empty frags when needed */
   int type; /*  0: busy large block
-               >0: busy fragmented (fragments of size 2^type bytes)
-               <0: free block */
+                >0: busy fragmented (fragments of size 2^type bytes)
+                <0: free block */
+  
   union {
     /* Heap information for a busy block.  */
     struct {
-      size_t nfree;           /* Free fragments in a fragmented block.  */
-      size_t first;           /* First free fragment of the block.  */
-      unsigned short frag_size[MAX_FRAGMENT_PER_BLOCK];
-      //void *bt[XBT_BACKTRACE_SIZE][MAX_FRAGMENT_PER_BLOCK]; /* Where it was malloced (or realloced lastly) */
+      size_t nfree;               /* Free fragments in a fragmented block.  */
+      ssize_t frag_size[MAX_FRAGMENT_PER_BLOCK];
+      //void *bt[MAX_FRAGMENT_PER_BLOCK][XBT_BACKTRACE_SIZE]; /* Where it was malloced (or realloced lastly) */
+      int ignore[MAX_FRAGMENT_PER_BLOCK];
     } busy_frag;
     struct {
       size_t size; /* Size (in blocks) of a large cluster.  */
       size_t busy_size; /* Actually used space, in bytes */
-      void *bt[XBT_BACKTRACE_SIZE]; /* Where it was malloced (or realloced lastly) */
-      int bt_size;
+      //void *bt[XBT_BACKTRACE_SIZE]; /* Where it was malloced (or realloced lastly) */
+      //int bt_size;
+      int ignore;
     } busy_block;
     /* Heap information for a free block (that may be the first of a free cluster).  */
     struct {
@@ -195,8 +223,10 @@ struct mdesc {
   /* Table indexed by block number giving per-block information.  */
   malloc_info *heapinfo;
 
-  /* List of all blocks containing free fragments of this size. The array indice is the log2 of requested size */
-  struct list fraghead[BLOCKLOG];
+  /* List of all blocks containing free fragments of this size.
+   * The array indice is the log2 of requested size.
+   * Actually only the sizes 8->11 seem to be used, but who cares? */
+  s_xbt_swag_t fraghead[BLOCKLOG];
 
   /* The base address of the memory region for this malloc heap.  This
      is the location where the bookkeeping data for mmap and for malloc
@@ -210,7 +240,9 @@ struct mdesc {
   void *breakval;
 
   /* The end of the current memory region for this malloc heap.  This is
-     the first location past the end of mapped memory. */
+     the first location past the end of mapped memory.
+     Compared to breakval, this value is rounded to the next memory page.
+      */
 
   void *top;
 
@@ -221,30 +253,30 @@ struct mdesc {
 
   int fd;
 
-};
+  /* Instrumentation.  */
 
-int mmalloc_compare_mdesc(struct mdesc *mdp1, struct mdesc *mdp2);
+  struct mstats heapstats;
 
-void mmalloc_display_info(void *h);
+};
 
 /* Bits to look at in the malloc descriptor flags word */
 
-#define MMALLOC_DEVZERO                (1 << 0)        /* Have mapped to /dev/zero */
+#define MMALLOC_DEVZERO    (1 << 0)        /* Have mapped to /dev/zero */
 #define MMALLOC_ANONYMOUS (1 << 1)      /* Use anonymous mapping */
-#define MMALLOC_INITIALIZED    (1 << 2)        /* Initialized mmalloc */
+#define MMALLOC_INITIALIZED  (1 << 2)        /* Initialized mmalloc */
 
 /* A default malloc descriptor for the single sbrk() managed region. */
 
-extern struct mdesc *__mmalloc_default_mdp;
+XBT_PUBLIC( struct mdesc ) *__mmalloc_default_mdp;
 
 /* Remap a mmalloc region that was previously mapped. */
 
-extern void *__mmalloc_remap_core(xbt_mheap_t mdp);
+XBT_PUBLIC( void *)__mmalloc_remap_core(xbt_mheap_t mdp);
 
 /*  Get core for the memory region specified by MDP, using SIZE as the
     amount to either add to or subtract from the existing region.  Works
     like sbrk(), but using mmap(). */
-extern void *mmorecore(struct mdesc *mdp, int size);
+XBT_PUBLIC( void *)mmorecore(struct mdesc *mdp, ssize_t size);
 
 /* Thread-safety (if the sem is already created)
  *
@@ -255,4 +287,10 @@ extern void *mmorecore(struct mdesc *mdp, int size);
 #define LOCK(mdp) sem_wait(&mdp->sem)
 #define UNLOCK(mdp) sem_post(&mdp->sem)
 
+static XBT_INLINE void  mmalloc_paranoia(struct mdesc *mdp){
+
+  /* nothing to fear for no */
+
+}
+
 #endif                          /* __MMPRIVATE_H */