Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
Fix smpi_execute_benched.
[simgrid.git] / src / smpi / internals / smpi_bench.cpp
1 /* Copyright (c) 2007, 2009-2017. The SimGrid Team. All rights reserved.    */
2
3 /* This program is free software; you can redistribute it and/or modify it
4  * under the terms of the license (GNU LGPL) which comes with this package. */
5
6 #include "src/internal_config.h"
7 #include "private.h"
8 #include "private.hpp"
9 #include "simgrid/modelchecker.h"
10 #include "src/mc/mc_replay.h"
11 #include "smpi_process.hpp"
12 #include "smpi_comm.hpp"
13 #include "simgrid/host.h"
14
15 #ifndef WIN32
16 #include <sys/mman.h>
17 #endif
18 #include <math.h> // sqrt
19
20 #if HAVE_PAPI
21 #include <papi.h>
22 #endif
23
24 XBT_LOG_NEW_DEFAULT_SUBCATEGORY(smpi_bench, smpi, "Logging specific to SMPI (benchmarking)");
25
26
27 xbt_dict_t samples = nullptr;         /* Allocated on first use */
28
29 double smpi_cpu_threshold = -1;
30 double smpi_host_speed;
31
32 shared_malloc_type smpi_cfg_shared_malloc = shmalloc_global;
33 double smpi_total_benched_time = 0;
34 smpi_privatization_region_t smpi_privatization_regions;
35
36 void smpi_bench_destroy()
37 {
38   xbt_dict_free(&samples);
39 }
40
41 extern "C" XBT_PUBLIC(void) smpi_execute_flops_(double *flops);
42 void smpi_execute_flops_(double *flops)
43 {
44   smpi_execute_flops(*flops);
45 }
46
47 extern "C" XBT_PUBLIC(void) smpi_execute_(double *duration);
48 void smpi_execute_(double *duration)
49 {
50   smpi_execute(*duration);
51 }
52
53 void smpi_execute_flops(double flops) {
54   XBT_DEBUG("Handle real computation time: %f flops", flops);
55   smx_activity_t action = simcall_execution_start("computation", flops, 1, 0);
56   simcall_set_category (action, TRACE_internal_smpi_get_category());
57   simcall_execution_wait(action);
58   smpi_switch_data_segment(smpi_process()->index());
59 }
60
61 void smpi_execute(double duration)
62 {
63   if (duration >= smpi_cpu_threshold) {
64     XBT_DEBUG("Sleep for %g to handle real computation time", duration);
65     double flops = duration * smpi_host_speed;
66     int rank = smpi_process()->index();
67     instr_extra_data extra = xbt_new0(s_instr_extra_data_t,1);
68     extra->type=TRACING_COMPUTING;
69     extra->comp_size=flops;
70     TRACE_smpi_computing_in(rank, extra);
71
72     smpi_execute_flops(flops);
73
74     TRACE_smpi_computing_out(rank);
75
76   } else {
77     XBT_DEBUG("Real computation took %g while option smpi/cpu_threshold is set to %g => ignore it", duration,
78               smpi_cpu_threshold);
79   }
80 }
81
82 void smpi_execute_benched(double duration)
83 {
84   smpi_bench_end();
85   double speed = sg_host_speed(sg_host_self());
86   smpi_execute_flops(duration*speed);
87   smpi_bench_begin();
88 }
89
90 void smpi_bench_begin()
91 {
92   if (smpi_privatize_global_variables == SMPI_PRIVATIZE_MMAP) {
93     smpi_switch_data_segment(smpi_process()->index());
94   }
95
96   if (MC_is_active() || MC_record_replay_is_active())
97     return;
98
99 #if HAVE_PAPI
100   if (xbt_cfg_get_string("smpi/papi-events")[0] != '\0') {
101     int event_set = smpi_process()->papi_event_set();
102     // PAPI_start sets everything to 0! See man(3) PAPI_start
103     if (PAPI_LOW_LEVEL_INITED == PAPI_is_initialized()) {
104       if (PAPI_start(event_set) != PAPI_OK) {
105         // TODO This needs some proper handling.
106         XBT_CRITICAL("Could not start PAPI counters.\n");
107         xbt_die("Error.");
108       }
109     }
110   }
111 #endif
112   xbt_os_threadtimer_start(smpi_process()->timer());
113 }
114
115 void smpi_bench_end()
116 {
117   if (MC_is_active() || MC_record_replay_is_active())
118     return;
119
120   double speedup = 1;
121   xbt_os_timer_t timer = smpi_process()->timer();
122   xbt_os_threadtimer_stop(timer);
123
124 #if HAVE_PAPI
125   /**
126    * An MPI function has been called and now is the right time to update
127    * our PAPI counters for this process.
128    */
129   if (xbt_cfg_get_string("smpi/papi-events")[0] != '\0') {
130     papi_counter_t& counter_data        = smpi_process()->papi_counters();
131     int event_set                       = smpi_process()->papi_event_set();
132     std::vector<long long> event_values = std::vector<long long>(counter_data.size());
133
134     if (PAPI_stop(event_set, &event_values[0]) != PAPI_OK) { // Error
135       XBT_CRITICAL("Could not stop PAPI counters.\n");
136       xbt_die("Error.");
137     } else {
138       for (unsigned int i = 0; i < counter_data.size(); i++) {
139         counter_data[i].second += event_values[i];
140         // XBT_DEBUG("[%i] PAPI: Counter %s: Value is now %lli (got increment by %lli\n", smpi_process()->index(),
141         // counter_data[i].first.c_str(), counter_data[i].second, event_values[i]);
142       }
143     }
144   }
145 #endif
146
147   if (smpi_process()->sampling()) {
148     XBT_CRITICAL("Cannot do recursive benchmarks.");
149     XBT_CRITICAL("Are you trying to make a call to MPI within a SMPI_SAMPLE_ block?");
150     xbt_backtrace_display_current();
151     xbt_die("Aborting.");
152   }
153
154   if (xbt_cfg_get_string("smpi/comp-adjustment-file")[0] != '\0') { // Maybe we need to artificially speed up or slow
155     // down our computation based on our statistical analysis.
156
157     smpi_trace_call_location_t* loc                            = smpi_process()->call_location();
158     std::string key                                            = loc->get_composed_key();
159     std::unordered_map<std::string, double>::const_iterator it = location2speedup.find(key);
160     if (it != location2speedup.end()) {
161       speedup = it->second;
162     }
163   }
164
165   // Simulate the benchmarked computation unless disabled via command-line argument
166   if (xbt_cfg_get_boolean("smpi/simulate-computation")) {
167     smpi_execute(xbt_os_timer_elapsed(timer)/speedup);
168   }
169
170 #if HAVE_PAPI
171   if (xbt_cfg_get_string("smpi/papi-events")[0] != '\0' && TRACE_smpi_is_enabled()) {
172     char container_name[INSTR_DEFAULT_STR_SIZE];
173     smpi_container(smpi_process()->index(), container_name, INSTR_DEFAULT_STR_SIZE);
174     container_t container        = PJ_container_get(container_name);
175     papi_counter_t& counter_data = smpi_process()->papi_counters();
176
177     for (auto& pair : counter_data) {
178       new_pajeSetVariable(surf_get_clock(), container,
179                           PJ_type_get(/* countername */ pair.first.c_str(), container->type), pair.second);
180     }
181   }
182 #endif
183
184   smpi_total_benched_time += xbt_os_timer_elapsed(timer);
185 }
186
187 /* Private sleep function used by smpi_sleep() and smpi_usleep() */
188 static unsigned int private_sleep(double secs)
189 {
190   smpi_bench_end();
191
192   XBT_DEBUG("Sleep for: %lf secs", secs);
193   int rank = MPI_COMM_WORLD->rank();
194   instr_extra_data extra = xbt_new0(s_instr_extra_data_t,1);
195   extra->type=TRACING_SLEEPING;
196   extra->sleep_duration=secs;
197   TRACE_smpi_sleeping_in(rank, extra);
198
199   simcall_process_sleep(secs);
200
201   TRACE_smpi_sleeping_out(rank);
202
203   smpi_bench_begin();
204   return 0;
205 }
206
207 unsigned int smpi_sleep(unsigned int secs)
208 {
209   return private_sleep(static_cast<double>(secs));
210 }
211
212 int smpi_usleep(useconds_t usecs)
213 {
214   return static_cast<int>(private_sleep(static_cast<double>(usecs) / 1000000.0));
215 }
216
217 #if _POSIX_TIMERS > 0
218 int smpi_nanosleep(const struct timespec *tp, struct timespec * t)
219 {
220   return static_cast<int>(private_sleep(static_cast<double>(tp->tv_sec + tp->tv_nsec / 1000000000.0)));
221 }
222 #endif
223
224 int smpi_gettimeofday(struct timeval *tv, void* tz)
225 {
226   smpi_bench_end();
227   double now = SIMIX_get_clock();
228   if (tv) {
229     tv->tv_sec = static_cast<time_t>(now);
230 #ifdef WIN32
231     tv->tv_usec = static_cast<useconds_t>((now - tv->tv_sec) * 1e6);
232 #else
233     tv->tv_usec = static_cast<suseconds_t>((now - tv->tv_sec) * 1e6);
234 #endif
235   }
236   smpi_bench_begin();
237   return 0;
238 }
239
240 #if _POSIX_TIMERS > 0
241 int smpi_clock_gettime(clockid_t clk_id, struct timespec *tp)
242 {
243   //there is only one time in SMPI, so clk_id is ignored.
244   smpi_bench_end();
245   double now = SIMIX_get_clock();
246   if (tp) {
247     tp->tv_sec = static_cast<time_t>(now);
248     tp->tv_nsec = static_cast<long int>((now - tp->tv_sec) * 1e9);
249   }
250   smpi_bench_begin();
251   return 0;
252 }
253 #endif
254
255 extern double sg_surf_precision;
256 unsigned long long smpi_rastro_resolution ()
257 {
258   smpi_bench_end();
259   double resolution = (1/sg_surf_precision);
260   smpi_bench_begin();
261   return static_cast<unsigned long long>(resolution);
262 }
263
264 unsigned long long smpi_rastro_timestamp ()
265 {
266   smpi_bench_end();
267   double now = SIMIX_get_clock();
268
269   unsigned long long sec = static_cast<unsigned long long>(now);
270   unsigned long long pre = (now - sec) * smpi_rastro_resolution();
271   smpi_bench_begin();
272   return static_cast<unsigned long long>(sec) * smpi_rastro_resolution() + pre;
273 }
274
275 /* ****************************** Functions related to the SMPI_SAMPLE_ macros ************************************/
276 typedef struct {
277   double threshold; /* maximal stderr requested (if positive) */
278   double relstderr; /* observed stderr so far */
279   double mean;      /* mean of benched times, to be used if the block is disabled */
280   double sum;       /* sum of benched times (to compute the mean and stderr) */
281   double sum_pow2;  /* sum of the square of the benched times (to compute the stderr) */
282   int iters;        /* amount of requested iterations */
283   int count;        /* amount of iterations done so far */
284   int benching;     /* 1: we are benchmarking; 0: we have enough data, no bench anymore */
285 } local_data_t;
286
287 static char *sample_location(int global, const char *file, int line) {
288   if (global) {
289     return bprintf("%s:%d", file, line);
290   } else {
291     return bprintf("%s:%d:%d", file, line, smpi_process()->index());
292   }
293 }
294
295 static int sample_enough_benchs(local_data_t *data) {
296   int res = data->count >= data->iters;
297   if (data->threshold>0.0) {
298     if (data->count <2)
299       res = 0; // not enough data
300     if (data->relstderr > data->threshold)
301       res = 0; // stderr too high yet
302   }
303   XBT_DEBUG("%s (count:%d iter:%d stderr:%f thres:%f mean:%fs)",
304       (res?"enough benchs":"need more data"), data->count, data->iters, data->relstderr, data->threshold, data->mean);
305   return res;
306 }
307
308 void smpi_sample_1(int global, const char *file, int line, int iters, double threshold)
309 {
310   char *loc = sample_location(global, file, line);
311
312   smpi_bench_end();     /* Take time from previous, unrelated computation into account */
313   smpi_process()->set_sampling(1);
314
315   if (samples==nullptr)
316     samples = xbt_dict_new_homogeneous(free);
317
318   local_data_t *data = static_cast<local_data_t *>(xbt_dict_get_or_null(samples, loc));
319   if (data==nullptr) {
320     xbt_assert(threshold>0 || iters>0,
321         "You should provide either a positive amount of iterations to bench, or a positive maximal stderr (or both)");
322     data = static_cast<local_data_t *>( xbt_new(local_data_t, 1));
323     data->count = 0;
324     data->sum = 0.0;
325     data->sum_pow2 = 0.0;
326     data->iters = iters;
327     data->threshold = threshold;
328     data->benching = 1; // If we have no data, we need at least one
329     data->mean = 0;
330     xbt_dict_set(samples, loc, data, nullptr);
331     XBT_DEBUG("XXXXX First time ever on benched nest %s.",loc);
332   } else {
333     if (data->iters != iters || data->threshold != threshold) {
334       XBT_ERROR("Asked to bench block %s with different settings %d, %f is not %d, %f. "
335                 "How did you manage to give two numbers at the same line??",
336                 loc, data->iters, data->threshold, iters, threshold);
337       THROW_IMPOSSIBLE;
338     }
339
340     // if we already have some data, check whether sample_2 should get one more bench or whether it should emulate
341     // the computation instead
342     data->benching = (sample_enough_benchs(data) == 0);
343     XBT_DEBUG("XXXX Re-entering the benched nest %s. %s", loc,
344               (data->benching ? "more benching needed" : "we have enough data, skip computes"));
345   }
346   xbt_free(loc);
347 }
348
349 int smpi_sample_2(int global, const char *file, int line)
350 {
351   char *loc = sample_location(global, file, line);
352   int res;
353
354   xbt_assert(samples, "Y U NO use SMPI_SAMPLE_* macros? Stop messing directly with smpi_sample_* functions!");
355   local_data_t *data = static_cast<local_data_t *>(xbt_dict_get(samples, loc));
356   XBT_DEBUG("sample2 %s",loc);
357   xbt_free(loc);
358
359   if (data->benching==1) {
360     // we need to run a new bench
361     XBT_DEBUG("benchmarking: count:%d iter:%d stderr:%f thres:%f; mean:%f",
362         data->count, data->iters, data->relstderr, data->threshold, data->mean);
363     res = 1;
364   } else {
365     // Enough data, no more bench (either we got enough data from previous visits to this benched nest, or we just
366     //ran one bench and need to bail out now that our job is done). Just sleep instead
367     XBT_DEBUG("No benchmark (either no need, or just ran one): count >= iter (%d >= %d) or stderr<thres (%f<=%f)."
368               " apply the %fs delay instead",
369               data->count, data->iters, data->relstderr, data->threshold, data->mean);
370     smpi_execute(data->mean);
371     smpi_process()->set_sampling(0);
372     res = 0; // prepare to capture future, unrelated computations
373   }
374   smpi_bench_begin();
375   return res;
376 }
377
378 void smpi_sample_3(int global, const char *file, int line)
379 {
380   char *loc = sample_location(global, file, line);
381
382   xbt_assert(samples, "Y U NO use SMPI_SAMPLE_* macros? Stop messing directly with smpi_sample_* functions!");
383   local_data_t *data = static_cast<local_data_t *>(xbt_dict_get(samples, loc));
384   XBT_DEBUG("sample3 %s",loc);
385   xbt_free(loc);
386
387   if (data->benching==0)
388     THROW_IMPOSSIBLE;
389
390   // ok, benchmarking this loop is over
391   xbt_os_threadtimer_stop(smpi_process()->timer());
392
393   // update the stats
394   data->count++;
395   double sample = xbt_os_timer_elapsed(smpi_process()->timer());
396   data->sum += sample;
397   data->sum_pow2 += sample * sample;
398   double n = static_cast<double>(data->count);
399   data->mean = data->sum / n;
400   data->relstderr = sqrt((data->sum_pow2 / n - data->mean * data->mean) / n) / data->mean;
401   if (sample_enough_benchs(data)==0) {
402     data->mean = sample; // Still in benching process; We want sample_2 to simulate the exact time of this loop
403     // occurrence before leaving, not the mean over the history
404   }
405   XBT_DEBUG("Average mean after %d steps is %f, relative standard error is %f (sample was %f)", data->count,
406       data->mean, data->relstderr, sample);
407
408   // That's enough for now, prevent sample_2 to run the same code over and over
409   data->benching = 0;
410 }
411
412 extern "C" { /** These functions will be called from the user code **/
413   smpi_trace_call_location_t* smpi_trace_get_call_location() {
414     return smpi_process()->call_location();
415   }
416
417   void smpi_trace_set_call_location(const char* file, const int line) {
418     smpi_trace_call_location_t* loc = smpi_process()->call_location();
419
420     loc->previous_filename   = loc->filename;
421     loc->previous_linenumber = loc->linenumber;
422     loc->filename            = file;
423     loc->linenumber          = line;
424   }
425
426   /**
427    * Required for Fortran bindings
428    */
429   void smpi_trace_set_call_location_(const char* file, int* line) {
430     smpi_trace_set_call_location(file, *line);
431   }
432
433   /**
434    * Required for Fortran if -fsecond-underscore is activated
435    */
436   void smpi_trace_set_call_location__(const char* file, int* line) {
437     smpi_trace_set_call_location(file, *line);
438   }
439 }