Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
Parameter 'fd' is always -1 for xbt_mheap_new. Kill dead code.
[simgrid.git] / src / xbt / mmalloc / mmprivate.h
index 2fdc94c..bca9acd 100644 (file)
@@ -1,6 +1,6 @@
 /* Declarations for `mmalloc' and friends. */
 
-/* Copyright (c) 2010-2017. The SimGrid Team. All rights reserved.          */
+/* Copyright (c) 2010-2021. The SimGrid Team. All rights reserved.          */
 
 /* This program is free software; you can redistribute it and/or modify it
  * under the terms of the license (GNU LGPL) which comes with this package. */
 #include <xbt/base.h>
 #include <xbt/misc.h>
 
+#include "swag.h"
 #include "src/internal_config.h"
-#include "xbt/xbt_os_thread.h"
 #include "xbt/mmalloc.h"
 #include "xbt/ex.h"
 #include "xbt/dynar.h"
-#include "xbt/swag.h"
 
 #include <pthread.h>
 #include <stdint.h>
 
-#ifdef HAVE_LIMITS_H
-#  include <limits.h>
-#else
-#  ifndef CHAR_BIT
-#    define CHAR_BIT 8
-#  endif
-#endif
+#include <limits.h>
 
 #define MMALLOC_MAGIC    "mmalloc"       /* Mapped file magic number */
 #define MMALLOC_MAGIC_SIZE  8       /* Size of magic number buf */
 #define BLOCKIFY(SIZE)  (((SIZE) + BLOCKSIZE - 1) / BLOCKSIZE)
 
 /* We keep fragment-specific meta-data for introspection purposes, and these
- * information are kept in fixed lenght arrays. Here is the computation of
+ * information are kept in fixed length arrays. Here is the computation of
  * that size.
  *
  * Never make SMALLEST_POSSIBLE_MALLOC smaller than sizeof(list) because we
  * need to enlist the free fragments.
  */
 
-//#define SMALLEST_POSSIBLE_MALLOC (sizeof(struct list))
 #define SMALLEST_POSSIBLE_MALLOC (16*sizeof(struct list))
 #define MAX_FRAGMENT_PER_BLOCK (BLOCKSIZE / SMALLEST_POSSIBLE_MALLOC)
 
@@ -96,7 +88,7 @@
 
 #define ADDRESS(B) ((void*) (((ADDR2UINT(B)) - 1) * BLOCKSIZE + (char*) mdp -> heapbase))
 
-SG_BEGIN_DECL()
+SG_BEGIN_DECL
 
 /* Doubly linked lists of free fragments.  */
 struct list {
@@ -154,14 +146,11 @@ typedef struct {
     struct {
       size_t nfree;               /* Free fragments in a fragmented block.  */
       ssize_t frag_size[MAX_FRAGMENT_PER_BLOCK];
-      //void *bt[MAX_FRAGMENT_PER_BLOCK][XBT_BACKTRACE_SIZE]; /* Where it was malloced (or realloced lastly) */
       int ignore[MAX_FRAGMENT_PER_BLOCK];
     } busy_frag;
     struct {
       size_t size; /* Size (in blocks) of a large cluster.  */
       size_t busy_size; /* Actually used space, in bytes */
-      //void *bt[XBT_BACKTRACE_SIZE]; /* Where it was malloced (or realloced lastly) */
-      //int bt_size;
       int ignore;
     } busy_block;
     /* Heap information for a free block (that may be the first of a free cluster).  */
@@ -181,13 +170,9 @@ typedef struct {
  * if such a file exists.
  * */
 struct mdesc {
-
   /** @brief Mutex locking the access to the heap */
   pthread_mutex_t mutex;
 
-  /** @brief Number of processes that attached the heap */
-  unsigned int refcount;
-
   /** @brief Chained lists of mdescs */
   struct mdesc *next_mdesc;
 
@@ -231,7 +216,7 @@ struct mdesc {
 
   /* @brief List of all blocks containing free fragments of a given size.
    *
-   * The array indice is the log2 of requested size.
+   * The array index is the log2 of requested size.
    * Actually only the sizes 8->11 seem to be used, but who cares? */
   s_xbt_swag_t fraghead[BLOCKLOG];
 
@@ -257,33 +242,20 @@ struct mdesc {
    */
   void *top;
 
-  /** @brief Open file descriptor for the file to which this malloc heap is mapped
-   *
-   * If this value is negative, MAP_ANONYMOUS memory is used.
-   *
-   * Also note that it may change each time the region is mapped and unmapped. */
-  int fd;
-
   /* @brief Instrumentation */
   struct mstats heapstats;
-
 };
 
 /* Bits to look at in the malloc descriptor flags word */
 
 #define MMALLOC_DEVZERO    (1 << 0)        /* Have mapped to /dev/zero */
-#define MMALLOC_ANONYMOUS (1 << 1)      /* Use anonymous mapping */
-#define MMALLOC_INITIALIZED  (1 << 2)        /* Initialized mmalloc */
+#define MMALLOC_INITIALIZED (1 << 1)      /* Initialized mmalloc */
 
 /* A default malloc descriptor for the single sbrk() managed region. */
 
-XBT_PUBLIC_DATA( struct mdesc ) *__mmalloc_default_mdp;
-
-/* Remap a mmalloc region that was previously mapped. */
+XBT_PUBLIC_DATA struct mdesc* __mmalloc_default_mdp;
 
-XBT_PUBLIC( void *)__mmalloc_remap_core(xbt_mheap_t mdp);
-
-XBT_PUBLIC( void *)mmorecore(struct mdesc *mdp, ssize_t size);
+XBT_PUBLIC void* mmorecore(struct mdesc* mdp, ssize_t size);
 
 /** Thread-safety (if the mutex is already created)
  *
@@ -291,26 +263,13 @@ XBT_PUBLIC( void *)mmorecore(struct mdesc *mdp, ssize_t size);
  * in a model-checking enabled tree. Without this protection, our malloc
  * implementation will not like multi-threading AT ALL.
  */
-#define LOCK(mdp) pthread_mutex_lock(&mdp->mutex)
-#define UNLOCK(mdp) pthread_mutex_unlock(&mdp->mutex)
-
-static inline int mmalloc_get_increment(malloc_info* heapinfo) {
-  if (heapinfo->type < 0) {
-    return heapinfo->free_block.size;
-  } else if (heapinfo->type == 0) {
-    return heapinfo->busy_block.size;
-  } else {
-    return 1;
-  }
-}
+#define LOCK(mdp) pthread_mutex_lock(&(mdp)->mutex)
+#define UNLOCK(mdp) pthread_mutex_unlock(&(mdp)->mutex)
 
 XBT_PRIVATE int malloc_use_mmalloc(void);
 
-XBT_PRIVATE int mmalloc_exec_using_mm(int argc, const char** argv);
-XBT_PRIVATE void mmalloc_ensure_using_mm(int argc, const char** argv);
-
 XBT_PRIVATE size_t mmalloc_get_bytes_used_remote(size_t heaplimit, const malloc_info* heapinfo);
 
-SG_END_DECL()
+SG_END_DECL
 
 #endif