Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
[mc] Do not allocate pagemap buffer on the heap
authorGabriel Corona <gabriel.corona@loria.fr>
Thu, 19 Jun 2014 13:13:42 +0000 (15:13 +0200)
committerGabriel Corona <gabriel.corona@loria.fr>
Thu, 19 Jun 2014 13:18:27 +0000 (15:18 +0200)
This won't work very well with small stacks.

include/xbt/mmalloc.h
src/mc/mc_page_snapshot.cpp

index e4bf2a5..13222c6 100644 (file)
@@ -23,6 +23,8 @@
 #include "xbt/dynar.h"
 #include "xbt/dict.h"
 
+SG_BEGIN_DECL()
+
 /* Datatype representing a separate heap. The whole point of the mmalloc module
  * is to allow several such heaps in the process. It thus works by redefining
  * all the classical memory management functions (malloc and friends) with an
@@ -75,5 +77,7 @@ void reset_heap_information(void);
 size_t mmalloc_get_bytes_used(xbt_mheap_t);
 ssize_t mmalloc_get_busy_size(xbt_mheap_t, void *ptr);
 
+SG_END_DECL()
+
 #endif
 #endif                          /* MMALLOC_H */
index 833d70c..c049b7d 100644 (file)
@@ -1,6 +1,8 @@
 #include "mc_page_store.h"
 #include "mc_mmu.h"
 
+#include <xbt/mmalloc.h>
+
 #define SOFT_DIRTY_BIT_NUMBER 55
 #define SOFT_DIRTY (((uint64_t)1) << SOFT_DIRTY_BIT_NUMBER)
 
@@ -150,7 +152,7 @@ mc_mem_region_t mc_region_new_sparse(int type, void *start_addr, size_t size, mc
 
   uint64_t* pagemap = NULL;
   if (mc_model_checker->parent_snapshot) {
-      pagemap = (uint64_t*) alloca(sizeof(uint64_t) * page_count);
+      pagemap = (uint64_t*) mmalloc_no_memset((xbt_mheap_t) mc_heap, sizeof(uint64_t) * page_count);
       mc_read_pagemap(pagemap, mc_page_number(NULL, start_addr), page_count);
   }
 
@@ -158,6 +160,9 @@ mc_mem_region_t mc_region_new_sparse(int type, void *start_addr, size_t size, mc
   new_reg->page_numbers = mc_take_page_snapshot_region(start_addr, page_count, pagemap,
     ref_reg==NULL ? NULL : ref_reg->page_numbers);
 
+  if(pagemap) {
+    mfree((xbt_mheap_t) mc_heap, pagemap);
+  }
   return new_reg;
 }
 
@@ -171,12 +176,18 @@ void mc_region_restore_sparse(mc_mem_region_t reg, mc_mem_region_t ref_reg)
 
   // Read soft-dirty bits if necessary in order to know which pages have changed:
   if (mc_model_checker->parent_snapshot) {
-    pagemap = (uint64_t*) alloca(sizeof(uint64_t) * page_count);
+    pagemap = (uint64_t*) mmalloc_no_memset((xbt_mheap_t) mc_heap, sizeof(uint64_t) * page_count);
     mc_read_pagemap(pagemap, mc_page_number(NULL, reg->start_addr), page_count);
   }
 
   // Incremental per-page snapshot restoration:
   mc_restore_page_snapshot_region(reg, page_count, pagemap, ref_reg);
+
+  // This is funny, the restoration can restore the state of the current heap,
+  // if this happen free(pagemap) would free from the wrong heap:
+  if(pagemap) {
+    mfree((xbt_mheap_t) mc_heap, pagemap);
+  }
 }
 
 }