Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
4b45471d5b6eebad36150e27dd32d9966a19be65
[simgrid.git] / src / smpi / smpi_bench.c
1 /* Copyright (c) 2007, 2009-2015. The SimGrid Team.
2  * All rights reserved.                                                     */
3
4 /* This program is free software; you can redistribute it and/or modify it
5  * under the terms of the license (GNU LGPL) which comes with this package. */
6
7 #include "src/internal_config.h"
8 #include "private.h"
9 #include "xbt/dict.h"
10 #include "xbt/sysdep.h"
11 #include "xbt/ex.h"
12 #include "xbt/hash.h"
13 #include "surf/surf.h"
14 #include "simgrid/sg_config.h"
15 #include "simgrid/modelchecker.h"
16 #include "src/mc/mc_replay.h"
17
18 #ifndef WIN32
19 #include <sys/mman.h>
20 #endif
21 #include <sys/stat.h>
22 #include <sys/types.h>
23 #include <errno.h>
24 #include <fcntl.h>
25 #include <math.h> // sqrt
26 #include <unistd.h>
27 #include <string.h>
28 #include <stdio.h>
29
30 #ifndef MAP_ANONYMOUS
31 #define MAP_ANONYMOUS MAP_ANON
32 #endif
33
34 XBT_LOG_NEW_DEFAULT_SUBCATEGORY(smpi_bench, smpi,
35                                 "Logging specific to SMPI (benchmarking)");
36
37 /* Shared allocations are handled through shared memory segments.
38  * Associated data and metadata are used as follows:
39  *
40  *                                                                    mmap #1
41  *    `allocs' dict                                                     ---- -.
42  *    ----------      shared_data_t               shared_metadata_t   / |  |  |
43  * .->| <name> | ---> -------------------- <--.   -----------------   | |  |  |
44  * |  ----------      | fd of <name>     |    |   | size of mmap  | --| |  |  |
45  * |                  | count (2)        |    |-- | data          |   \ |  |  |
46  * `----------------- | <name>           |    |   -----------------     ----  |
47  *                    --------------------    |   ^                           |
48  *                                            |   |                           |
49  *                                            |   |   `allocs_metadata' dict  |
50  *                                            |   |   ----------------------  |
51  *                                            |   `-- | <addr of mmap #1>  |<-'
52  *                                            |   .-- | <addr of mmap #2>  |<-.
53  *                                            |   |   ----------------------  |
54  *                                            |   |                           |
55  *                                            |   |                           |
56  *                                            |   |                           |
57  *                                            |   |                   mmap #2 |
58  *                                            |   v                     ---- -'
59  *                                            |   shared_metadata_t   / |  |
60  *                                            |   -----------------   | |  |
61  *                                            |   | size of mmap  | --| |  |
62  *                                            `-- | data          |   | |  |
63  *                                                -----------------   | |  |
64  *                                                                    \ |  |
65  *                                                                      ----
66  */
67
68 #define PTR_STRLEN (2 + 2 * sizeof(void*) + 1)
69
70 xbt_dict_t allocs = NULL;          /* Allocated on first use */
71 xbt_dict_t allocs_metadata = NULL; /* Allocated on first use */
72 xbt_dict_t samples = NULL;         /* Allocated on first use */
73 xbt_dict_t calls = NULL;           /* Allocated on first use */
74
75 double smpi_cpu_threshold;
76 double smpi_running_power;
77
78 int smpi_loaded_page = -1;
79 char* smpi_start_data_exe = NULL;
80 int smpi_size_data_exe = 0;
81 int smpi_privatize_global_variables;
82 double smpi_total_benched_time = 0;
83 smpi_privatisation_region_t smpi_privatisation_regions;
84
85 typedef struct {
86   int fd;
87   int count;
88   char* loc;
89 } shared_data_t;
90
91 typedef struct  {
92   size_t size;
93   shared_data_t* data;
94 } shared_metadata_t;
95
96 static size_t shm_size(int fd) {
97   struct stat st;
98
99   if(fstat(fd, &st) < 0) {
100     xbt_die("Could not stat fd %d: %s", fd, strerror(errno));
101   }
102   return (size_t)st.st_size;
103 }
104
105 #ifndef WIN32
106 static void* shm_map(int fd, size_t size, shared_data_t* data) {
107   void* mem;
108   char loc[PTR_STRLEN];
109   shared_metadata_t* meta;
110
111   if(size > shm_size(fd)) {
112     if(ftruncate(fd, (off_t)size) < 0) {
113       xbt_die("Could not truncate fd %d to %zu: %s", fd, size, strerror(errno));
114     }
115   }
116
117   mem = mmap(NULL, size, PROT_READ | PROT_WRITE, MAP_SHARED, fd, 0);
118   if(mem == MAP_FAILED) {
119     xbt_die("Could not map fd %d: %s", fd, strerror(errno));
120   }
121   if(!allocs_metadata) {
122     allocs_metadata = xbt_dict_new_homogeneous(xbt_free_f);
123   }
124   snprintf(loc, PTR_STRLEN, "%p", mem);
125   meta = xbt_new(shared_metadata_t, 1);
126   meta->size = size;
127   meta->data = data;
128   xbt_dict_set(allocs_metadata, loc, meta, NULL);
129   XBT_DEBUG("MMAP %zu to %p", size, mem);
130   return mem;
131 }
132 #endif
133
134 void smpi_bench_destroy(void)
135 {
136   xbt_dict_free(&allocs);
137   xbt_dict_free(&allocs_metadata);
138   xbt_dict_free(&samples);
139   xbt_dict_free(&calls);
140 }
141
142 XBT_PUBLIC(void) smpi_execute_flops_(double *flops);
143 void smpi_execute_flops_(double *flops)
144 {
145   smpi_execute_flops(*flops);
146 }
147
148 XBT_PUBLIC(void) smpi_execute_(double *duration);
149 void smpi_execute_(double *duration)
150 {
151   smpi_execute(*duration);
152 }
153
154 void smpi_execute_flops(double flops) {
155   smx_synchro_t action;
156   XBT_DEBUG("Handle real computation time: %f flops", flops);
157   action = simcall_process_execute("computation", flops, 1, 0, 0);
158   simcall_set_category (action, TRACE_internal_smpi_get_category());
159   simcall_process_execution_wait(action);
160   smpi_switch_data_segment(smpi_process_index());
161 }
162
163 void smpi_execute(double duration)
164 {
165   if (duration >= smpi_cpu_threshold) {
166     XBT_DEBUG("Sleep for %g to handle real computation time", duration);
167     double flops = duration * smpi_running_power;
168     int rank = smpi_process_index();
169     instr_extra_data extra = xbt_new0(s_instr_extra_data_t,1);
170     extra->type=TRACING_COMPUTING;
171     extra->comp_size=flops;
172     TRACE_smpi_computing_in(rank, extra);
173     smpi_execute_flops(flops);
174
175     TRACE_smpi_computing_out(rank);
176
177   } else {
178     XBT_DEBUG("Real computation took %g while option smpi/cpu_threshold is set to %g => ignore it",
179               duration, smpi_cpu_threshold);
180   }
181 }
182
183 void smpi_switch_data_segment(int dest);
184
185 void smpi_bench_begin(void)
186 {
187   smpi_switch_data_segment(smpi_process_index());
188
189   if (MC_is_active() || MC_record_replay_is_active())
190     return;
191
192   xbt_os_threadtimer_start(smpi_process_timer());
193 }
194
195 void smpi_bench_end(void)
196 {
197
198   if (MC_is_active() || MC_record_replay_is_active())
199     return;
200
201   xbt_os_timer_t timer = smpi_process_timer();
202   xbt_os_threadtimer_stop(timer);
203 //  smpi_switch_data_segment(smpi_process_count());
204   if (smpi_process_get_sampling()) {
205     XBT_CRITICAL("Cannot do recursive benchmarks.");
206     XBT_CRITICAL("Are you trying to make a call to MPI within a SMPI_SAMPLE_ block?");
207     xbt_backtrace_display_current();
208     xbt_die("Aborting.");
209   }
210   // Simulate the benchmarked computation unless disabled via command-line argument
211   if (sg_cfg_get_boolean("smpi/simulate_computation")) {
212     smpi_execute(xbt_os_timer_elapsed(timer));
213   }
214
215   smpi_total_benched_time += xbt_os_timer_elapsed(timer);
216 }
217
218 /* Private sleep function used by smpi_sleep() and smpi_usleep() */
219 static unsigned int private_sleep(double secs)
220 {
221   smpi_bench_end();
222
223   XBT_DEBUG("Sleep for: %lf secs", secs);
224   int rank = smpi_comm_rank(MPI_COMM_WORLD);
225   instr_extra_data extra = xbt_new0(s_instr_extra_data_t,1);
226   extra->type=TRACING_SLEEPING;
227   extra->sleep_duration=secs;
228   TRACE_smpi_sleeping_in(rank, extra);
229
230   simcall_process_sleep(secs);
231
232   TRACE_smpi_sleeping_out(rank);
233
234   smpi_bench_begin();
235   return 0;
236 }
237
238 unsigned int smpi_sleep(unsigned int secs)
239 {
240   return private_sleep((double)secs);
241 }
242
243 int smpi_usleep(useconds_t usecs)
244 {
245   return (int)private_sleep((double)usecs / 1000000.0);
246 }
247
248
249 int smpi_gettimeofday(struct timeval *tv, void* tz)
250 {
251   double now;
252   smpi_bench_end();
253   now = SIMIX_get_clock();
254   if (tv) {
255     tv->tv_sec = (time_t)now;
256 #ifdef WIN32
257     tv->tv_usec = (useconds_t)((now - tv->tv_sec) * 1e6);
258 #else
259     tv->tv_usec = (suseconds_t)((now - tv->tv_sec) * 1e6);
260 #endif
261   }
262   smpi_bench_begin();
263   return 0;
264 }
265
266 extern double sg_surf_precision;
267 unsigned long long smpi_rastro_resolution (void)
268 {
269   smpi_bench_end();
270   double resolution = (1/sg_surf_precision);
271   smpi_bench_begin();
272   return (unsigned long long)resolution;
273 }
274
275 unsigned long long smpi_rastro_timestamp (void)
276 {
277   smpi_bench_end();
278   double now = SIMIX_get_clock();
279
280   unsigned long long sec = (unsigned long long)now;
281   unsigned long long pre = (now - sec) * smpi_rastro_resolution();
282   smpi_bench_begin();
283   return (unsigned long long)sec * smpi_rastro_resolution() + pre;
284 }
285
286 /* ****************************** Functions related to the SMPI_SAMPLE_ macros ************************************/
287 typedef struct {
288   double threshold; /* maximal stderr requested (if positive) */
289   double relstderr; /* observed stderr so far */
290   double mean;      /* mean of benched times, to be used if the block is disabled */
291   double sum;       /* sum of benched times (to compute the mean and stderr) */
292   double sum_pow2;  /* sum of the square of the benched times (to compute the stderr) */
293   int iters;        /* amount of requested iterations */
294   int count;        /* amount of iterations done so far */
295   int benching;     /* 1: we are benchmarking; 0: we have enough data, no bench anymore */
296 } local_data_t;
297
298 static char *sample_location(int global, const char *file, int line) {
299   if (global) {
300     return bprintf("%s:%d", file, line);
301   } else {
302     return bprintf("%s:%d:%d", file, line, smpi_process_index());
303   }
304 }
305 static int sample_enough_benchs(local_data_t *data) {
306   int res = data->count >= data->iters;
307   if (data->threshold>0.0) {
308     if (data->count <2)
309       res = 0; // not enough data
310     if (data->relstderr > data->threshold)
311       res = 0; // stderr too high yet
312   }
313   XBT_DEBUG("%s (count:%d iter:%d stderr:%f thres:%f mean:%fs)",
314       (res?"enough benchs":"need more data"),
315       data->count, data->iters, data->relstderr, data->threshold, data->mean);
316   return res;
317 }
318
319 void smpi_sample_1(int global, const char *file, int line, int iters, double threshold)
320 {
321   char *loc = sample_location(global, file, line);
322   local_data_t *data;
323
324   smpi_bench_end();     /* Take time from previous, unrelated computation into account */
325   smpi_process_set_sampling(1);
326
327   if (!samples)
328     samples = xbt_dict_new_homogeneous(free);
329
330   data = xbt_dict_get_or_null(samples, loc);
331   if (!data) {
332     xbt_assert(threshold>0 || iters>0,
333         "You should provide either a positive amount of iterations to bench, or a positive maximal stderr (or both)");
334     data = (local_data_t *) xbt_new(local_data_t, 1);
335     data->count = 0;
336     data->sum = 0.0;
337     data->sum_pow2 = 0.0;
338     data->iters = iters;
339     data->threshold = threshold;
340     data->benching = 1; // If we have no data, we need at least one
341     data->mean = 0;
342     xbt_dict_set(samples, loc, data, NULL);
343     XBT_DEBUG("XXXXX First time ever on benched nest %s.",loc);
344   } else {
345     if (data->iters != iters || data->threshold != threshold) {
346       XBT_ERROR("Asked to bench block %s with different settings %d, %f is not %d, %f. How did you manage to give two numbers at the same line??",
347           loc, data->iters, data->threshold, iters,threshold);
348       THROW_IMPOSSIBLE;
349     }
350
351     // if we already have some data, check whether sample_2 should get one more bench or whether it should emulate the computation instead
352     data->benching = !sample_enough_benchs(data);
353     XBT_DEBUG("XXXX Re-entering the benched nest %s. %s",loc, (data->benching?"more benching needed":"we have enough data, skip computes"));
354   }
355   xbt_free(loc);
356 }
357
358 int smpi_sample_2(int global, const char *file, int line)
359 {
360   char *loc = sample_location(global, file, line);
361   local_data_t *data;
362   int res;
363
364   xbt_assert(samples, "Y U NO use SMPI_SAMPLE_* macros? Stop messing directly with smpi_sample_* functions!");
365   data = xbt_dict_get(samples, loc);
366   XBT_DEBUG("sample2 %s",loc);
367   xbt_free(loc);
368
369   if (data->benching==1) {
370     // we need to run a new bench
371     XBT_DEBUG("benchmarking: count:%d iter:%d stderr:%f thres:%f; mean:%f",
372         data->count, data->iters, data->relstderr, data->threshold, data->mean);
373     res = 1;
374   } else {
375     // Enough data, no more bench (either we got enough data from previous visits to this benched nest, or we just ran one bench and need to bail out now that our job is done).
376     // Just sleep instead
377     XBT_DEBUG("No benchmark (either no need, or just ran one): count >= iter (%d >= %d) or stderr<thres (%f<=%f). apply the %fs delay instead",
378         data->count, data->iters, data->relstderr, data->threshold, data->mean);
379     smpi_execute(data->mean);
380     smpi_process_set_sampling(0);
381     res = 0; // prepare to capture future, unrelated computations
382   }
383   smpi_bench_begin();
384   return res;
385 }
386
387
388 void smpi_sample_3(int global, const char *file, int line)
389 {
390   char *loc = sample_location(global, file, line);
391   local_data_t *data;
392
393   xbt_assert(samples, "Y U NO use SMPI_SAMPLE_* macros? Stop messing directly with smpi_sample_* functions!");
394   data = xbt_dict_get(samples, loc);
395   XBT_DEBUG("sample3 %s",loc);
396   xbt_free(loc);
397
398   if (data->benching==0) {
399     THROW_IMPOSSIBLE;
400   }
401
402   // ok, benchmarking this loop is over
403   xbt_os_threadtimer_stop(smpi_process_timer());
404
405   // update the stats
406   double sample, n;
407   data->count++;
408   sample = xbt_os_timer_elapsed(smpi_process_timer());
409   data->sum += sample;
410   data->sum_pow2 += sample * sample;
411   n = (double)data->count;
412   data->mean = data->sum / n;
413   data->relstderr = sqrt((data->sum_pow2 / n - data->mean * data->mean) / n) / data->mean;
414   if (!sample_enough_benchs(data)) {
415     data->mean = sample; // Still in benching process; We want sample_2 to simulate the exact time of this loop occurrence before leaving, not the mean over the history
416   }
417   XBT_DEBUG("Average mean after %d steps is %f, relative standard error is %f (sample was %f)", data->count,
418       data->mean, data->relstderr, sample);
419
420   // That's enough for now, prevent sample_2 to run the same code over and over
421   data->benching = 0;
422 }
423
424 #ifndef WIN32
425 static void smpi_shared_alloc_free(void *p)
426 {
427   shared_data_t *data = p;
428   xbt_free(data->loc);
429   xbt_free(data);
430 }
431
432 static char *smpi_shared_alloc_hash(char *loc)
433 {
434   char hash[42];
435   char s[7];
436   unsigned val;
437   int i, j;
438
439   xbt_sha(loc, hash);
440   hash[41] = '\0';
441   s[6] = '\0';
442   loc = xbt_realloc(loc, 30);
443   loc[0] = '/';
444   for (i = 0; i < 40; i += 6) { /* base64 encode */
445     memcpy(s, hash + i, 6);
446     val = strtoul(s, NULL, 16);
447     for (j = 0; j < 4; j++) {
448       unsigned char x = (val >> (18 - 3 * j)) & 0x3f;
449       loc[1 + 4 * i / 6 + j] =
450         "ABCDEFGHIJKLMNOPQRSTUVZXYZabcdefghijklmnopqrstuvzxyz0123456789-_"[x];
451     }
452   }
453   loc[29] = '\0';
454   return loc;
455 }
456
457 void *smpi_shared_malloc(size_t size, const char *file, int line)
458 {
459   void* mem;
460   if (sg_cfg_get_boolean("smpi/use_shared_malloc")){
461     char *loc = bprintf("/%zu_%s_%d", (size_t)getpid(), file, line);
462     int fd;
463     shared_data_t *data;
464     loc = smpi_shared_alloc_hash(loc); /* hash loc, in order to have something
465                                         * not too long */
466     if (!allocs) {
467       allocs = xbt_dict_new_homogeneous(smpi_shared_alloc_free);
468     }
469     data = xbt_dict_get_or_null(allocs, loc);
470     if (!data) {
471       fd = shm_open(loc, O_RDWR | O_CREAT | O_EXCL,
472                     S_IRUSR | S_IWUSR | S_IRGRP | S_IROTH);
473       if (fd < 0) {
474         switch(errno) {
475           case EEXIST:
476             xbt_die("Please cleanup /dev/shm/%s", loc);
477           default:
478             xbt_die("An unhandled error occured while opening %s. shm_open: %s", loc, strerror(errno));
479         }
480       }
481       data = xbt_new(shared_data_t, 1);
482       data->fd = fd;
483       data->count = 1;
484       data->loc = loc;
485       mem = shm_map(fd, size, data);
486       if (shm_unlink(loc) < 0) {
487         XBT_WARN("Could not early unlink %s. shm_unlink: %s", loc, strerror(errno));
488       }
489       xbt_dict_set(allocs, loc, data, NULL);
490       XBT_DEBUG("Mapping %s at %p through %d", loc, mem, fd);
491     } else {
492       xbt_free(loc);
493       mem = shm_map(data->fd, size, data);
494       data->count++;
495     }
496     XBT_DEBUG("Shared malloc %zu in %p (metadata at %p)", size, mem, data);
497   } else {
498     mem = xbt_malloc(size);
499     XBT_DEBUG("Classic malloc %zu in %p", size, mem);
500   }
501
502   return mem;
503 }
504 void smpi_shared_free(void *ptr)
505 {
506   char loc[PTR_STRLEN];
507   shared_metadata_t* meta;
508   shared_data_t* data;
509   if (sg_cfg_get_boolean("smpi/use_shared_malloc")){
510
511     if (!allocs) {
512       XBT_WARN("Cannot free: nothing was allocated");
513       return;
514     }
515     if(!allocs_metadata) {
516       XBT_WARN("Cannot free: no metadata was allocated");
517     }
518     snprintf(loc, PTR_STRLEN, "%p", ptr);
519     meta = (shared_metadata_t*)xbt_dict_get_or_null(allocs_metadata, loc);
520     if (!meta) {
521       XBT_WARN("Cannot free: %p was not shared-allocated by SMPI", ptr);
522       return;
523     }
524     data = meta->data;
525     if(!data) {
526       XBT_WARN("Cannot free: something is broken in the metadata link");
527       return;
528     }
529     if(munmap(ptr, meta->size) < 0) {
530       XBT_WARN("Unmapping of fd %d failed: %s", data->fd, strerror(errno));
531     }
532     data->count--;
533     XBT_DEBUG("Shared free - no removal - of %p, count = %d", ptr, data->count);
534     if (data->count <= 0) {
535       close(data->fd);
536       xbt_dict_remove(allocs, data->loc);
537       XBT_DEBUG("Shared free - with removal - of %p", ptr);
538     }
539   }else{
540     XBT_DEBUG("Classic free of %p", ptr);
541     xbt_free(ptr);
542   }
543 }
544 #endif
545
546 int smpi_shared_known_call(const char* func, const char* input)
547 {
548   char* loc = bprintf("%s:%s", func, input);
549   xbt_ex_t ex;
550   int known = 0;
551
552   if (!calls) {
553     calls = xbt_dict_new_homogeneous(NULL);
554   }
555   TRY {
556     xbt_dict_get(calls, loc); /* Succeed or throw */
557     known = 1;
558   }
559   TRY_CLEANUP {
560     xbt_free(loc);
561   }
562   CATCH(ex) {
563     if (ex.category != not_found_error)
564       RETHROW;
565     xbt_ex_free(ex);
566   }
567   return known;
568 }
569
570 void* smpi_shared_get_call(const char* func, const char* input) {
571    char* loc = bprintf("%s:%s", func, input);
572    void* data;
573
574    if(!calls) {
575       calls = xbt_dict_new_homogeneous(NULL);
576    }
577    data = xbt_dict_get(calls, loc);
578    free(loc);
579    return data;
580 }
581
582 void* smpi_shared_set_call(const char* func, const char* input, void* data) {
583    char* loc = bprintf("%s:%s", func, input);
584
585    if(!calls) {
586       calls = xbt_dict_new_homogeneous(NULL);
587    }
588    xbt_dict_set(calls, loc, data, NULL);
589    free(loc);
590    return data;
591 }
592
593
594
595
596 #define TOPAGE(addr) (void *)(((unsigned long)(addr) / xbt_pagesize) * xbt_pagesize)
597
598
599 /** Map a given SMPI privatization segment (make a SMPI process active)
600  */
601 void smpi_switch_data_segment(int dest){
602
603   if (smpi_loaded_page==dest)//no need to switch either
604    return;
605
606   // So the job:
607   smpi_really_switch_data_segment(dest);
608 }
609
610 /** Map a given SMPI privatization segment (make a SMPI process active)
611  *  even if SMPI thinks it is already active
612  *
613  *  When doing a state restoration, the state of the restored variables
614  *  might not be consistent with the state of the virtual memory.
615  *  In this case, we to change the data segment.
616  */
617 void smpi_really_switch_data_segment(int dest) {
618
619   if(smpi_size_data_exe == 0)//no need to switch
620     return;
621
622 #ifdef HAVE_PRIVATIZATION
623   int i;
624   if(smpi_loaded_page==-1){//initial switch, do the copy from the real page here
625     for (i=0; i< smpi_process_count(); i++){
626       memcpy(smpi_privatisation_regions[i].address,
627         TOPAGE(smpi_start_data_exe), smpi_size_data_exe);
628     }
629   }
630
631   // FIXME, cross-process support (mmap across process when necessary)
632   int current = smpi_privatisation_regions[dest].file_descriptor;
633   XBT_DEBUG("Switching data frame to the one of process %d", dest);
634   void* tmp = mmap (TOPAGE(smpi_start_data_exe), smpi_size_data_exe,
635     PROT_READ | PROT_WRITE, MAP_FIXED | MAP_SHARED, current, 0);
636   if (tmp != TOPAGE(smpi_start_data_exe))
637     xbt_die("Couldn't map the new region");
638   smpi_loaded_page = dest;
639 #endif
640 }
641
642 int smpi_is_privatisation_file(char* file)
643 {
644   return strncmp("/dev/shm/my-buffer-", file, 19) == 0;
645 }
646
647 void smpi_initialize_global_memory_segments(){
648
649 #ifndef HAVE_PRIVATIZATION
650   smpi_privatize_global_variables=0;
651   xbt_die("You are trying to use privatization on a system that does not support it. Don't.");
652   return;
653 #else
654
655   unsigned int i = 0;
656   smpi_get_executable_global_size();
657
658   XBT_DEBUG ("bss+data segment found : size %d starting at %p",
659     smpi_size_data_exe, smpi_start_data_exe );
660
661   if (smpi_size_data_exe == 0){//no need to switch
662     smpi_privatize_global_variables=0;
663     return;
664   }
665
666   smpi_privatisation_regions = (smpi_privatisation_region_t) malloc(
667     smpi_process_count() * sizeof(struct s_smpi_privatisation_region));
668
669   for (i=0; i< smpi_process_count(); i++){
670       //create SIMIX_process_count() mappings of this size with the same data inside
671       void *address = NULL;
672       char path[] = "/dev/shm/my-buffer-XXXXXX";
673       int status;
674
675       int file_descriptor= mkstemp (path);
676       if (file_descriptor < 0) {
677           if (errno==EMFILE) {
678                   xbt_die("Impossible to create temporary file for memory mapping: %s\n\
679 The open() system call failed with the EMFILE error code (too many files). \n\n\
680 This means that you reached the system limits concerning the amount of files per process. \
681 This is not a surprise if you are trying to virtualize many processes on top of SMPI. \
682 Don't panic -- you should simply increase your system limits and try again. \n\n\
683 First, check what your limits are:\n\
684   cat /proc/sys/fs/file-max # Gives you the system-wide limit\n\
685   ulimit -Hn                # Gives you the per process hard limit\n\
686   ulimit -Sn                # Gives you the per process soft limit\n\
687   cat /proc/self/limits     # Displays any per-process limitation (including the one given above)\n\n\
688 If one of these values is less than the amount of MPI processes that you try to run, then you got the explanation of this error. \
689 Ask the Internet about tutorials on how to increase the files limit such as: https://rtcamp.com/tutorials/linux/increase-open-files-limit/",
690              strerror(errno));
691           }
692         xbt_die("Impossible to create temporary file for memory mapping: %s",
693                         strerror(errno));
694       }
695
696       status = unlink (path);
697       if (status)
698         xbt_die("Impossible to unlink temporary file for memory mapping");
699
700       status = ftruncate(file_descriptor, smpi_size_data_exe);
701       if(status)
702         xbt_die("Impossible to set the size of the temporary file for memory mapping");
703
704       /* Ask for a free region */
705       address = mmap (NULL, smpi_size_data_exe, PROT_READ | PROT_WRITE, MAP_SHARED, file_descriptor, 0);
706       if (address == MAP_FAILED)
707         xbt_die("Couldn't find a free region for memory mapping");
708
709       //initialize the values
710       memcpy(address, TOPAGE(smpi_start_data_exe), smpi_size_data_exe);
711
712       //store the address of the mapping for further switches
713       smpi_privatisation_regions[i].file_descriptor = file_descriptor;
714       smpi_privatisation_regions[i].address = address;
715   }
716
717 #endif
718
719 }
720
721 void smpi_destroy_global_memory_segments(){
722   if (smpi_size_data_exe == 0)//no need to switch
723     return;
724 #ifdef HAVE_PRIVATIZATION
725   int i;
726   for (i=0; i< smpi_process_count(); i++){
727     if(munmap(smpi_privatisation_regions[i].address, smpi_size_data_exe) < 0) {
728       XBT_WARN("Unmapping of fd %d failed: %s",
729         smpi_privatisation_regions[i].file_descriptor, strerror(errno));
730     }
731     close(smpi_privatisation_regions[i].file_descriptor);
732   }
733   xbt_free(smpi_privatisation_regions);
734 #endif
735
736 }