Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
Merge branch 'master' into actor-priority
[simgrid.git] / src / smpi / internals / smpi_shared.cpp
1 /* Copyright (c) 2007, 2009-2017. The SimGrid Team. All rights reserved.    */
2
3 /* This program is free software; you can redistribute it and/or modify it
4  * under the terms of the license (GNU LGPL) which comes with this package. */
5
6 /* Shared allocations are handled through shared memory segments.
7  * Associated data and metadata are used as follows:
8  *
9  *                                                                    mmap #1
10  *    `allocs' map                                                      ---- -.
11  *    ----------      shared_data_t               shared_metadata_t   / |  |  |
12  * .->| <name> | ---> -------------------- <--.   -----------------   | |  |  |
13  * |  ----------      | fd of <name>     |    |   | size of mmap  | --| |  |  |
14  * |                  | count (2)        |    |-- | data          |   \ |  |  |
15  * `----------------- | <name>           |    |   -----------------     ----  |
16  *                    --------------------    |   ^                           |
17  *                                            |   |                           |
18  *                                            |   |   `allocs_metadata' map   |
19  *                                            |   |   ----------------------  |
20  *                                            |   `-- | <addr of mmap #1>  |<-'
21  *                                            |   .-- | <addr of mmap #2>  |<-.
22  *                                            |   |   ----------------------  |
23  *                                            |   |                           |
24  *                                            |   |                           |
25  *                                            |   |                           |
26  *                                            |   |                   mmap #2 |
27  *                                            |   v                     ---- -'
28  *                                            |   shared_metadata_t   / |  |
29  *                                            |   -----------------   | |  |
30  *                                            |   | size of mmap  | --| |  |
31  *                                            `-- | data          |   | |  |
32  *                                                -----------------   | |  |
33  *                                                                    \ |  |
34  *                                                                      ----
35  */
36 #include <map>
37 #include <cstring>
38
39 #include "private.hpp"
40 #include <cerrno>
41
42 #include <sys/types.h>
43 #ifndef WIN32
44 #include <sys/mman.h>
45 #endif
46 #include <cstdio>
47 #include <fcntl.h>
48 #include <sys/stat.h>
49
50 #ifndef MAP_ANONYMOUS
51 #define MAP_ANONYMOUS MAP_ANON
52 #endif
53
54 #ifndef MAP_POPULATE
55 #define MAP_POPULATE 0
56 #endif
57
58 XBT_LOG_NEW_DEFAULT_SUBCATEGORY(smpi_shared, smpi, "Logging specific to SMPI (shared memory macros)");
59
60 #define PTR_STRLEN (2 + 2 * sizeof(void*) + 1)
61
62 namespace{
63 /** Some location in the source code
64  *
65  *  This information is used by SMPI_SHARED_MALLOC to allocate  some shared memory for all simulated processes.
66  */
67
68 class smpi_source_location : public std::string {
69 public:
70   smpi_source_location() = default;
71   smpi_source_location(const char* filename, int line) : std::string(std::string(filename) + ":" + std::to_string(line))
72   {
73   }
74 };
75
76 struct shared_data_t {
77   int fd    = -1;
78   int count = 0;
79 };
80
81 std::unordered_map<smpi_source_location, shared_data_t, std::hash<std::string>> allocs;
82 typedef decltype(allocs)::value_type shared_data_key_type;
83
84 struct shared_metadata_t {
85   size_t size;
86   size_t allocated_size;
87   void *allocated_ptr;
88   std::vector<std::pair<size_t, size_t>> private_blocks;
89   shared_data_key_type* data;
90 };
91
92 std::map<void*, shared_metadata_t> allocs_metadata;
93 std::map<std::string, void*> calls;
94
95 #ifndef WIN32
96 static int smpi_shared_malloc_bogusfile           = -1;
97 static int smpi_shared_malloc_bogusfile_huge_page  = -1;
98 static unsigned long smpi_shared_malloc_blocksize = 1UL << 20;
99 #endif
100 }
101
102
103 void smpi_shared_destroy()
104 {
105   allocs.clear();
106   allocs_metadata.clear();
107   calls.clear();
108 }
109
110 static size_t shm_size(int fd) {
111   struct stat st;
112
113   if(fstat(fd, &st) < 0) {
114     xbt_die("Could not stat fd %d: %s", fd, strerror(errno));
115   }
116   return static_cast<size_t>(st.st_size);
117 }
118
119 #ifndef WIN32
120 static void* shm_map(int fd, size_t size, shared_data_key_type* data) {
121   char loc[PTR_STRLEN];
122   shared_metadata_t meta;
123
124   if(size > shm_size(fd) && (ftruncate(fd, static_cast<off_t>(size)) < 0)) {
125     xbt_die("Could not truncate fd %d to %zu: %s", fd, size, strerror(errno));
126   }
127
128   void* mem = mmap(nullptr, size, PROT_READ | PROT_WRITE, MAP_SHARED, fd, 0);
129   if(mem == MAP_FAILED) {
130     xbt_die(
131         "Failed to map fd %d with size %zu: %s\n"
132         "If you are running a lot of ranks, you may be exceeding the amount of mappings allowed per process.\n"
133         "On Linux systems, change this value with sudo sysctl -w vm.max_map_count=newvalue (default value: 65536)\n"
134         "Please see http://simgrid.gforge.inria.fr/simgrid/latest/doc/html/options.html#options_virt for more info.",
135         fd, size, strerror(errno));
136   }
137   snprintf(loc, PTR_STRLEN, "%p", mem);
138   meta.size = size;
139   meta.data = data;
140   allocs_metadata[mem] = meta;
141   XBT_DEBUG("MMAP %zu to %p", size, mem);
142   return mem;
143 }
144
145 static void *smpi_shared_malloc_local(size_t size, const char *file, int line)
146 {
147   void* mem;
148   smpi_source_location loc(file, line);
149   auto res = allocs.insert(std::make_pair(loc, shared_data_t()));
150   auto data = res.first;
151   if (res.second) {
152     // The insertion did not take place.
153     // Generate a shared memory name from the address of the shared_data:
154     char shmname[32]; // cannot be longer than PSHMNAMLEN = 31 on Mac OS X (shm_open raises ENAMETOOLONG otherwise)
155     snprintf(shmname, 31, "/shmalloc%p", &*data);
156     int fd = shm_open(shmname, O_RDWR | O_CREAT | O_EXCL, S_IRUSR | S_IWUSR | S_IRGRP | S_IROTH);
157     if (fd < 0) {
158       if (errno == EEXIST)
159         xbt_die("Please cleanup /dev/shm/%s", shmname);
160       else
161         xbt_die("An unhandled error occurred while opening %s. shm_open: %s", shmname, strerror(errno));
162     }
163     data->second.fd = fd;
164     data->second.count = 1;
165     mem = shm_map(fd, size, &*data);
166     if (shm_unlink(shmname) < 0) {
167       XBT_WARN("Could not early unlink %s. shm_unlink: %s", shmname, strerror(errno));
168     }
169     XBT_DEBUG("Mapping %s at %p through %d", shmname, mem, fd);
170   } else {
171     mem = shm_map(data->second.fd, size, &*data);
172     data->second.count++;
173   }
174   XBT_DEBUG("Shared malloc %zu in %p (metadata at %p)", size, mem, &*data);
175   return mem;
176 }
177
178 // Align functions, from http://stackoverflow.com/questions/4840410/how-to-align-a-pointer-in-c
179 #define PAGE_SIZE 0x1000
180 #define ALIGN_UP(n, align) (((n) + (align)-1) & -(align))
181 #define ALIGN_DOWN(n, align) ((n) & -(align))
182
183 #define HUGE_PAGE_SIZE 1<<21
184
185 /* Similar to smpi_shared_malloc, but only sharing the blocks described by shared_block_offsets.
186  * This array contains the offsets (in bytes) of the block to share.
187  * Even indices are the start offsets (included), odd indices are the stop offsets (excluded).
188  * For instance, if shared_block_offsets == {27, 42}, then the elements mem[27], mem[28], ..., mem[41] are shared.
189  * The others are not.
190  */
191
192 void* smpi_shared_malloc_partial(size_t size, size_t* shared_block_offsets, int nb_shared_blocks)
193 {
194   char *huge_page_mount_point = xbt_cfg_get_string("smpi/shared-malloc-hugepage");
195   bool use_huge_page = huge_page_mount_point[0] != '\0';
196 #ifndef MAP_HUGETLB /* If the system header don't define that mmap flag */
197   xbt_assert(not use_huge_page,
198              "Huge pages are not available on your system, you cannot use the smpi/shared-malloc-hugepage option.");
199   use_huge_page = 0;
200 #endif
201   smpi_shared_malloc_blocksize = static_cast<unsigned long>(xbt_cfg_get_double("smpi/shared-malloc-blocksize"));
202   void* mem;
203   size_t allocated_size;
204   if(use_huge_page) {
205     xbt_assert(smpi_shared_malloc_blocksize == HUGE_PAGE_SIZE, "the block size of shared malloc should be equal to the size of a huge page.");
206     allocated_size = size + 2*smpi_shared_malloc_blocksize;
207   }
208   else {
209     xbt_assert(smpi_shared_malloc_blocksize % PAGE_SIZE == 0, "the block size of shared malloc should be a multiple of the page size.");
210     allocated_size = size;
211   }
212
213
214   /* First reserve memory area */
215   void* allocated_ptr = mmap(NULL, allocated_size, PROT_READ | PROT_WRITE, MAP_ANONYMOUS | MAP_PRIVATE, -1, 0);
216
217   xbt_assert(allocated_ptr != MAP_FAILED, "Failed to allocate %zuMiB of memory. Run \"sysctl vm.overcommit_memory=1\" as root "
218                                 "to allow big allocations.\n",
219              size >> 20);
220   if(use_huge_page)
221     mem = (void*)ALIGN_UP((uint64_t)allocated_ptr, HUGE_PAGE_SIZE);
222   else
223     mem = allocated_ptr;
224
225   XBT_DEBUG("global shared allocation. Blocksize %lu", smpi_shared_malloc_blocksize);
226   /* Create a fd to a new file on disk, make it smpi_shared_malloc_blocksize big, and unlink it.
227    * It still exists in memory but not in the file system (thus it cannot be leaked). */
228   /* Create bogus file if not done already
229    * We need two different bogusfiles:
230    *    smpi_shared_malloc_bogusfile_huge_page is used for calls to mmap *with* MAP_HUGETLB,
231    *    smpi_shared_malloc_bogusfile is used for calls to mmap *without* MAP_HUGETLB.
232    * We cannot use a same file for the two type of calls, since the first one needs to be
233    * opened in a hugetlbfs mount point whereas the second needs to be a "classical" file. */
234   if(use_huge_page && smpi_shared_malloc_bogusfile_huge_page == -1) {
235     char* huge_page_filename               = bprintf("%s/simgrid-shmalloc-XXXXXX", huge_page_mount_point);
236     smpi_shared_malloc_bogusfile_huge_page = mkstemp(huge_page_filename);
237     XBT_DEBUG("bogusfile_huge_page: %s\n", huge_page_filename);
238     unlink(huge_page_filename);
239     xbt_free(huge_page_filename);
240   }
241   if(smpi_shared_malloc_bogusfile == -1) {
242     char name[]                  = "/tmp/simgrid-shmalloc-XXXXXX";
243     smpi_shared_malloc_bogusfile = mkstemp(name);
244     XBT_DEBUG("bogusfile         : %s\n", name);
245     unlink(name);
246     char* dumb  = new char[smpi_shared_malloc_blocksize](); // zero initialized
247     ssize_t err = write(smpi_shared_malloc_bogusfile, dumb, smpi_shared_malloc_blocksize);
248     if(err<0)
249       xbt_die("Could not write bogus file for shared malloc");
250     delete[] dumb;
251   }
252
253   int mmap_base_flag = MAP_FIXED | MAP_SHARED | MAP_POPULATE;
254   int mmap_flag = mmap_base_flag;
255   int huge_fd = use_huge_page ? smpi_shared_malloc_bogusfile_huge_page : smpi_shared_malloc_bogusfile;
256 #ifdef MAP_HUGETLB
257   if(use_huge_page)
258     mmap_flag |= MAP_HUGETLB;
259 #endif
260
261   XBT_DEBUG("global shared allocation, begin mmap");
262
263   /* Map the bogus file in place of the anonymous memory */
264   for(int i_block = 0; i_block < nb_shared_blocks; i_block ++) {
265     XBT_DEBUG("\tglobal shared allocation, mmap block %d/%d", i_block+1, nb_shared_blocks);
266     size_t start_offset = shared_block_offsets[2*i_block];
267     size_t stop_offset = shared_block_offsets[2*i_block+1];
268     xbt_assert(start_offset < stop_offset, "start_offset (%zu) should be lower than stop offset (%zu)", start_offset, stop_offset);
269     xbt_assert(stop_offset <= size,         "stop_offset (%zu) should be lower than size (%zu)", stop_offset, size);
270     if(i_block < nb_shared_blocks-1)
271       xbt_assert(stop_offset < shared_block_offsets[2*i_block+2],
272               "stop_offset (%zu) should be lower than its successor start offset (%zu)", stop_offset, shared_block_offsets[2*i_block+2]);
273     size_t start_block_offset = ALIGN_UP(start_offset, smpi_shared_malloc_blocksize);
274     size_t stop_block_offset = ALIGN_DOWN(stop_offset, smpi_shared_malloc_blocksize);
275     for (unsigned block_id=0, i = start_block_offset / smpi_shared_malloc_blocksize; i < stop_block_offset / smpi_shared_malloc_blocksize; block_id++, i++) {
276       XBT_DEBUG("\t\tglobal shared allocation, mmap block offset %u", block_id);
277       void* pos = (void*)((unsigned long)mem + i * smpi_shared_malloc_blocksize);
278       void* res = mmap(pos, smpi_shared_malloc_blocksize, PROT_READ | PROT_WRITE, mmap_flag,
279                        huge_fd, 0);
280       xbt_assert(res == pos, "Could not map folded virtual memory (%s). Do you perhaps need to increase the "
281                              "size of the mapped file using --cfg=smpi/shared-malloc-blocksize=newvalue (default 1048576) ? "
282                              "You can also try using  the sysctl vm.max_map_count. "
283                              "If you are using huge pages, check that you have at least one huge page (/proc/sys/vm/nr_hugepages) "
284                              "and that the directory you are passing is mounted correctly (mount /path/to/huge -t hugetlbfs -o rw,mode=0777).",
285                  strerror(errno));
286     }
287     size_t low_page_start_offset = ALIGN_UP(start_offset, PAGE_SIZE);
288     size_t low_page_stop_offset = start_block_offset < ALIGN_DOWN(stop_offset, PAGE_SIZE) ? start_block_offset : ALIGN_DOWN(stop_offset, PAGE_SIZE);
289     if(low_page_start_offset < low_page_stop_offset) {
290       XBT_DEBUG("\t\tglobal shared allocation, mmap block start");
291       void* pos = (void*)((unsigned long)mem + low_page_start_offset);
292       void* res = mmap(pos, low_page_stop_offset-low_page_start_offset, PROT_READ | PROT_WRITE, mmap_base_flag, // not a full huge page
293                        smpi_shared_malloc_bogusfile, 0);
294       xbt_assert(res == pos, "Could not map folded virtual memory (%s). Do you perhaps need to increase the "
295                              "size of the mapped file using --cfg=smpi/shared-malloc-blocksize=newvalue (default 1048576) ?"
296                              "You can also try using  the sysctl vm.max_map_count",
297                  strerror(errno));
298     }
299     if(low_page_stop_offset <= stop_block_offset) {
300       XBT_DEBUG("\t\tglobal shared allocation, mmap block stop");
301       size_t high_page_stop_offset = stop_offset == size ? size : ALIGN_DOWN(stop_offset, PAGE_SIZE);
302       if(high_page_stop_offset > stop_block_offset) {
303         void* pos = (void*)((unsigned long)mem + stop_block_offset);
304         void* res = mmap(pos, high_page_stop_offset-stop_block_offset, PROT_READ | PROT_WRITE, mmap_base_flag, // not a full huge page
305                          smpi_shared_malloc_bogusfile, 0);
306         xbt_assert(res == pos, "Could not map folded virtual memory (%s). Do you perhaps need to increase the "
307                                "size of the mapped file using --cfg=smpi/shared-malloc-blocksize=newvalue (default 1048576) ?"
308                                "You can also try using  the sysctl vm.max_map_count",
309                    strerror(errno));
310       }
311     }
312   }
313
314   shared_metadata_t newmeta;
315   //register metadata for memcpy avoidance
316   shared_data_key_type* data = new shared_data_key_type;
317   data->second.fd = -1;
318   data->second.count = 1;
319   newmeta.size = size;
320   newmeta.data = data;
321   newmeta.allocated_ptr = allocated_ptr;
322   newmeta.allocated_size = allocated_size;
323   if(shared_block_offsets[0] > 0) {
324     newmeta.private_blocks.push_back(std::make_pair(0, shared_block_offsets[0]));
325   }
326   int i_block;
327   for(i_block = 0; i_block < nb_shared_blocks-1; i_block ++) {
328     newmeta.private_blocks.push_back(std::make_pair(shared_block_offsets[2*i_block+1], shared_block_offsets[2*i_block+2]));
329   }
330   if(shared_block_offsets[2*i_block+1] < size) {
331     newmeta.private_blocks.push_back(std::make_pair(shared_block_offsets[2*i_block+1], size));
332   }
333   allocs_metadata[mem] = newmeta;
334
335   XBT_DEBUG("global shared allocation, allocated_ptr %p - %p", allocated_ptr, (void*)(((uint64_t)allocated_ptr)+allocated_size));
336   XBT_DEBUG("global shared allocation, returned_ptr  %p - %p", mem, (void*)(((uint64_t)mem)+size));
337
338   return mem;
339 }
340
341 void *smpi_shared_malloc(size_t size, const char *file, int line) {
342   if (size > 0 && smpi_cfg_shared_malloc == shmalloc_local) {
343     return smpi_shared_malloc_local(size, file, line);
344   } else if (smpi_cfg_shared_malloc == shmalloc_global) {
345     int nb_shared_blocks = 1;
346     size_t shared_block_offsets[2] = {0, size};
347     return smpi_shared_malloc_partial(size, shared_block_offsets, nb_shared_blocks);
348   }
349   XBT_DEBUG("Classic allocation of %zu bytes", size);
350   return ::operator new(size);
351 }
352
353 int smpi_is_shared(void* ptr, std::vector<std::pair<size_t, size_t>> &private_blocks, size_t *offset){
354   private_blocks.clear(); // being paranoid
355   if (allocs_metadata.empty())
356     return 0;
357   if ( smpi_cfg_shared_malloc == shmalloc_local || smpi_cfg_shared_malloc == shmalloc_global) {
358     auto low = allocs_metadata.lower_bound(ptr);
359     if (low != allocs_metadata.end() && low->first == ptr) {
360       private_blocks = low->second.private_blocks;
361       *offset = 0;
362       return 1;
363     }
364     if (low == allocs_metadata.begin())
365       return 0;
366     low --;
367     if (ptr < (char*)low->first + low->second.size) {
368       xbt_assert(ptr > (char*)low->first, "Oops, there seems to be a bug in the shared memory metadata.");
369       *offset = ((uint8_t*)ptr) - ((uint8_t*) low->first);
370       private_blocks = low->second.private_blocks;
371       return 1;
372     }
373     return 0;
374   } else {
375     return 0;
376   }
377 }
378
379 std::vector<std::pair<size_t, size_t>> shift_and_frame_private_blocks(const std::vector<std::pair<size_t, size_t>> vec, size_t offset, size_t buff_size) {
380     std::vector<std::pair<size_t, size_t>> result;
381     for (auto const& block : vec) {
382       auto new_block = std::make_pair(std::min(std::max((size_t)0, block.first - offset), buff_size),
383                                       std::min(std::max((size_t)0, block.second - offset), buff_size));
384       if (new_block.second > 0 && new_block.first < buff_size)
385         result.push_back(new_block);
386     }
387     return result;
388 }
389
390 std::vector<std::pair<size_t, size_t>> merge_private_blocks(std::vector<std::pair<size_t, size_t>> src, std::vector<std::pair<size_t, size_t>> dst) {
391   std::vector<std::pair<size_t, size_t>> result;
392   unsigned i_src = 0;
393   unsigned i_dst = 0;
394   while(i_src < src.size() && i_dst < dst.size()) {
395     std::pair<size_t, size_t> block;
396     if(src[i_src].second <= dst[i_dst].first) {
397         i_src++;
398     }
399     else if(dst[i_dst].second <= src[i_src].first) {
400         i_dst++;
401     }
402     else { // src.second > dst.first && dst.second > src.first → the blocks are overlapping
403       block = std::make_pair(std::max(src[i_src].first, dst[i_dst].first),
404                              std::min(src[i_src].second, dst[i_dst].second));
405       result.push_back(block);
406       if(src[i_src].second < dst[i_dst].second)
407           i_src ++;
408       else
409           i_dst ++;
410     }
411   }
412   return result;
413 }
414
415 void smpi_shared_free(void *ptr)
416 {
417   if (smpi_cfg_shared_malloc == shmalloc_local) {
418     char loc[PTR_STRLEN];
419     snprintf(loc, PTR_STRLEN, "%p", ptr);
420     auto meta = allocs_metadata.find(ptr);
421     if (meta == allocs_metadata.end()) {
422       XBT_WARN("Cannot free: %p was not shared-allocated by SMPI - maybe its size was 0?", ptr);
423       return;
424     }
425     shared_data_t* data = &meta->second.data->second;
426     if (munmap(meta->second.allocated_ptr, meta->second.allocated_size) < 0) {
427       XBT_WARN("Unmapping of fd %d failed: %s", data->fd, strerror(errno));
428     }
429     data->count--;
430     if (data->count <= 0) {
431       close(data->fd);
432       allocs.erase(allocs.find(meta->second.data->first));
433       allocs_metadata.erase(ptr);
434       XBT_DEBUG("Shared free - with removal - of %p", ptr);
435     } else {
436       XBT_DEBUG("Shared free - no removal - of %p, count = %d", ptr, data->count);
437     }
438
439   } else if (smpi_cfg_shared_malloc == shmalloc_global) {
440     auto meta = allocs_metadata.find(ptr);
441     if (meta != allocs_metadata.end()){
442       meta->second.data->second.count--;
443       if(meta->second.data->second.count==0)
444         delete meta->second.data;
445     }
446
447     munmap(ptr, meta->second.size);
448   } else {
449     XBT_DEBUG("Classic deallocation of %p", ptr);
450     ::operator delete(ptr);
451   }
452 }
453 #endif
454
455 int smpi_shared_known_call(const char* func, const char* input)
456 {
457   std::string loc = std::string(func) + ":" + input;
458   return calls.find(loc) != calls.end();
459 }
460
461 void* smpi_shared_get_call(const char* func, const char* input) {
462   std::string loc = std::string(func) + ":" + input;
463
464   return calls.at(loc);
465 }
466
467 void* smpi_shared_set_call(const char* func, const char* input, void* data) {
468   std::string loc = std::string(func) + ":" + input;
469   calls[loc]      = data;
470   return data;
471 }