Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
migration: fix status check of migration
[simgrid.git] / src / msg / msg_vm.c
1 /* Copyright (c) 2012-2014. The SimGrid Team.
2  * All rights reserved.                                                     */
3
4 /* This program is free software; you can redistribute it and/or modify it
5  * under the terms of the license (GNU LGPL) which comes with this package. */
6
7 // QUESTIONS:
8 // 1./ check how and where a new VM is added to the list of the hosts
9 // 2./ Diff between SIMIX_Actions and SURF_Actions
10 // => SIMIX_actions : point synchro entre processus de niveau (theoretically speaking I do not have to create such SIMIX_ACTION
11 // =>  Surf_Actions
12
13 // TODO
14 //      MSG_TRACE can be revisited in order to use  the host
15 //      To implement a mixed model between workstation and vm_workstation,
16 //     please give a look at surf_model_private_t model_private at SURF Level and to the share resource functions
17 //     double (*share_resources) (double now);
18 //      For the action into the vm workstation model, we should be able to leverage the usual one (and if needed, look at
19 //              the workstation model.
20
21 #include "msg_private.h"
22 #include "xbt/sysdep.h"
23 #include "xbt/log.h"
24 #include "simgrid/platf.h"
25
26 XBT_LOG_NEW_DEFAULT_SUBCATEGORY(msg_vm, msg,
27                                 "Cloud-oriented parts of the MSG API");
28
29
30 /* **** ******** GENERAL ********* **** */
31
32 /** \ingroup m_vm_management
33  * \brief Returns the value of a given vm property
34  *
35  * \param vm a vm
36  * \param name a property name
37  * \return value of a property (or NULL if property not set)
38  */
39
40 const char *MSG_vm_get_property_value(msg_vm_t vm, const char *name)
41 {
42   return MSG_host_get_property_value(vm, name);
43 }
44
45 /** \ingroup m_vm_management
46  * \brief Returns a xbt_dict_t consisting of the list of properties assigned to this host
47  *
48  * \param vm a vm
49  * \return a dict containing the properties
50  */
51 xbt_dict_t MSG_vm_get_properties(msg_vm_t vm)
52 {
53   xbt_assert((vm != NULL), "Invalid parameters (vm is NULL)");
54
55   return (simcall_host_get_properties(vm));
56 }
57
58 /** \ingroup m_host_management
59  * \brief Change the value of a given host property
60  *
61  * \param vm a vm
62  * \param name a property name
63  * \param value what to change the property to
64  * \param free_ctn the freeing function to use to kill the value on need
65  */
66 void MSG_vm_set_property_value(msg_vm_t vm, const char *name, void *value, void_f_pvoid_t free_ctn)
67 {
68   xbt_dict_set(MSG_host_get_properties(vm), name, value, free_ctn);
69 }
70
71 /** \ingroup msg_vm_management
72  * \brief Finds a msg_vm_t using its name.
73  *
74  * This is a name directory service
75  * \param name the name of a vm.
76  * \return the corresponding vm
77  *
78  * Please note that a VM is a specific host. Hence, you should give a different name
79  * for each VM/PM.
80  */
81
82 msg_vm_t MSG_vm_get_by_name(const char *name)
83 {
84         return MSG_get_host_by_name(name);
85 }
86
87 /** \ingroup m_vm_management
88  *
89  * \brief Return the name of the #msg_host_t.
90  *
91  * This functions checks whether \a host is a valid pointer or not and return
92    its name.
93  */
94 const char *MSG_vm_get_name(msg_vm_t vm)
95 {
96   return MSG_host_get_name(vm);
97 }
98
99
100 /* **** Check state of a VM **** */
101 static inline int __MSG_vm_is_state(msg_vm_t vm, e_surf_vm_state_t state)
102 {
103   return simcall_vm_get_state(vm) == state;
104 }
105
106 /** @brief Returns whether the given VM has just created, not running.
107  *  @ingroup msg_VMs
108  */
109 int MSG_vm_is_created(msg_vm_t vm)
110 {
111   return __MSG_vm_is_state(vm, SURF_VM_STATE_CREATED);
112 }
113
114 /** @brief Returns whether the given VM is currently running
115  *  @ingroup msg_VMs
116  */
117 int MSG_vm_is_running(msg_vm_t vm)
118 {
119   return __MSG_vm_is_state(vm, SURF_VM_STATE_RUNNING);
120 }
121
122 /** @brief Returns whether the given VM is currently migrating
123  *  @ingroup msg_VMs
124  */
125 int MSG_vm_is_migrating(msg_vm_t vm)
126 {
127   msg_host_priv_t priv = msg_host_resource_priv(vm);
128   return priv->is_migrating;
129 }
130
131 /** @brief Returns whether the given VM is currently suspended, not running.
132  *  @ingroup msg_VMs
133  */
134 int MSG_vm_is_suspended(msg_vm_t vm)
135 {
136   return __MSG_vm_is_state(vm, SURF_VM_STATE_SUSPENDED);
137 }
138
139 /** @brief Returns whether the given VM is being saved (FIXME: live saving or not?).
140  *  @ingroup msg_VMs
141  */
142 int MSG_vm_is_saving(msg_vm_t vm)
143 {
144   return __MSG_vm_is_state(vm, SURF_VM_STATE_SAVING);
145 }
146
147 /** @brief Returns whether the given VM has been saved, not running.
148  *  @ingroup msg_VMs
149  */
150 int MSG_vm_is_saved(msg_vm_t vm)
151 {
152   return __MSG_vm_is_state(vm, SURF_VM_STATE_SAVED);
153 }
154
155 /** @brief Returns whether the given VM is being restored, not running.
156  *  @ingroup msg_VMs
157  */
158 int MSG_vm_is_restoring(msg_vm_t vm)
159 {
160   return __MSG_vm_is_state(vm, SURF_VM_STATE_RESTORING);
161 }
162
163
164
165 /* ------------------------------------------------------------------------- */
166 /* ------------------------------------------------------------------------- */
167
168 /* **** ******** MSG vm actions ********* **** */
169
170 /** @brief Create a new VM with specified parameters.
171  *  @ingroup msg_VMs*
172  *  All parameters are in MBytes
173  *
174  */
175 msg_vm_t MSG_vm_create(msg_host_t ind_pm, const char *name,
176                        int ncpus, int ramsize,
177                        int net_cap, char *disk_path, int disksize,
178                        int mig_netspeed, int dp_intensity)
179 {
180   /* For the moment, intensity_rate is the percentage against the migration
181    * bandwidth */
182   double host_speed = MSG_get_host_speed(ind_pm);
183   double update_speed = ((double)dp_intensity/100) * mig_netspeed;
184
185   msg_vm_t vm = MSG_vm_create_core(ind_pm, name);
186   s_ws_params_t params;
187   memset(&params, 0, sizeof(params));
188   params.ramsize = (sg_size_t)ramsize * 1024 * 1024;
189   //params.overcommit = 0;
190   params.devsize = 0;
191   params.skip_stage2 = 0;
192   params.max_downtime = 0.03;
193   params.dp_rate = (update_speed * 1024 * 1024) / host_speed;
194   params.dp_cap = params.ramsize * 0.9; // assume working set memory is 90% of ramsize
195   params.mig_speed = (double)mig_netspeed * 1024 * 1024; // mig_speed
196
197   //XBT_INFO("dp rate %f migspeed : %f intensity mem : %d, updatespeed %f, hostspeed %f",params.dp_rate, params.mig_speed, dp_intensity, update_speed, host_speed);
198   simcall_host_set_params(vm, &params);
199
200   return vm;
201 }
202
203
204 /** @brief Create a new VM object. The VM is not yet started. The resource of the VM is allocated upon MSG_vm_start().
205  *  @ingroup msg_VMs*
206  *
207  * A VM is treated as a host. The name of the VM must be unique among all hosts.
208  */
209 msg_vm_t MSG_vm_create_core(msg_host_t ind_pm, const char *name)
210 {
211   /* make sure the VM of the same name does not exit */
212   {
213     void *ind_host_tmp = xbt_lib_get_elm_or_null(host_lib, name);
214     if (ind_host_tmp) {
215       XBT_ERROR("host %s already exits", name);
216       return NULL;
217     }
218   }
219
220   /* Note: ind_vm and vm_workstation point to the same elm object. */
221   msg_vm_t ind_vm = NULL;
222   void *ind_vm_workstation =  NULL;
223
224   /* Ask the SIMIX layer to create the surf vm resource */
225   ind_vm_workstation = simcall_vm_create(name, ind_pm);
226   ind_vm = (msg_vm_t) __MSG_host_create(ind_vm_workstation);
227
228   XBT_DEBUG("A new VM (%s) has been created", name);
229
230   #ifdef HAVE_TRACING
231   TRACE_msg_vm_create(name, ind_pm);
232   #endif
233
234   return ind_vm;
235 }
236
237 /** @brief Destroy a VM. Destroy the VM object from the simulation.
238  *  @ingroup msg_VMs
239  */
240 void MSG_vm_destroy(msg_vm_t vm)
241 {
242   if (MSG_vm_is_migrating(vm))
243     THROWF(vm_error, 0, "VM(%s) is migrating", sg_host_name(vm));
244
245   /* First, terminate all processes on the VM if necessary */
246   if (MSG_vm_is_running(vm))
247       simcall_vm_shutdown(vm);
248
249   if (!MSG_vm_is_created(vm)) {
250     XBT_CRITICAL("shutdown the given VM before destroying it");
251     DIE_IMPOSSIBLE;
252   }
253
254   /* Then, destroy the VM object */
255   simcall_vm_destroy(vm);
256
257   __MSG_host_destroy(vm);
258
259   #ifdef HAVE_TRACING
260   TRACE_msg_vm_end(vm);
261   #endif
262 }
263
264
265 /** @brief Start a vm (i.e., boot the guest operating system)
266  *  @ingroup msg_VMs
267  *
268  *  If the VM cannot be started, an exception is generated.
269  *
270  */
271 void MSG_vm_start(msg_vm_t vm)
272 {
273   simcall_vm_start(vm);
274
275   #ifdef HAVE_TRACING
276   TRACE_msg_vm_start(vm);
277   #endif
278 }
279
280
281
282 /** @brief Immediately kills all processes within the given VM. Any memory that they allocated will be leaked.
283  *  @ingroup msg_VMs
284  *
285  * FIXME: No extra delay occurs. If you want to simulate this too, you want to
286  * use a #MSG_process_sleep() or something. I'm not quite sure.
287  */
288 void MSG_vm_shutdown(msg_vm_t vm)
289 {
290   /* msg_vm_t equals to msg_host_t */
291   simcall_vm_shutdown(vm);
292
293   // #ifdef HAVE_TRACING
294   // TRACE_msg_vm_(vm);
295   // #endif
296 }
297
298
299
300 /* We have two mailboxes. mbox is used to transfer migration data between
301  * source and destination PMs. mbox_ctl is used to detect the completion of a
302  * migration. The names of these mailboxes must not conflict with others. */
303 static inline char *get_mig_mbox_src_dst(const char *vm_name, const char *src_pm_name, const char *dst_pm_name)
304 {
305   return bprintf("__mbox_mig_src_dst:%s(%s-%s)", vm_name, src_pm_name, dst_pm_name);
306 }
307
308 static inline char *get_mig_mbox_ctl(const char *vm_name, const char *src_pm_name, const char *dst_pm_name)
309 {
310   return bprintf("__mbox_mig_ctl:%s(%s-%s)", vm_name, src_pm_name, dst_pm_name);
311 }
312
313 static inline char *get_mig_process_tx_name(const char *vm_name, const char *src_pm_name, const char *dst_pm_name)
314 {
315   return bprintf("__pr_mig_tx:%s(%s-%s)", vm_name, src_pm_name, dst_pm_name);
316 }
317
318 static inline char *get_mig_process_rx_name(const char *vm_name, const char *src_pm_name, const char *dst_pm_name)
319 {
320   return bprintf("__pr_mig_rx:%s(%s-%s)", vm_name, src_pm_name, dst_pm_name);
321 }
322
323 static inline char *get_mig_task_name(const char *vm_name, const char *src_pm_name, const char *dst_pm_name, int stage)
324 {
325   return bprintf("__task_mig_stage%d:%s(%s-%s)", stage, vm_name, src_pm_name, dst_pm_name);
326 }
327
328 static void launch_deferred_exec_process(msg_host_t host, double computation, double prio);
329
330 static int migration_rx_fun(int argc, char *argv[])
331 {
332   XBT_DEBUG("mig: rx_start");
333
334   xbt_assert(argc == 4);
335   const char *vm_name = argv[1];
336   const char *src_pm_name  = argv[2];
337   const char *dst_pm_name  = argv[3];
338   msg_vm_t vm = MSG_get_host_by_name(vm_name);
339   msg_host_t src_pm = MSG_get_host_by_name(src_pm_name);
340   msg_host_t dst_pm = MSG_get_host_by_name(dst_pm_name);
341
342
343   s_ws_params_t params;
344   simcall_host_get_params(vm, &params);
345   const double xfer_cpu_overhead = params.xfer_cpu_overhead;
346
347
348   int need_exit = 0;
349
350   char *mbox = get_mig_mbox_src_dst(vm_name, src_pm_name, dst_pm_name);
351   char *mbox_ctl = get_mig_mbox_ctl(vm_name, src_pm_name, dst_pm_name);
352   char *finalize_task_name = get_mig_task_name(vm_name, src_pm_name, dst_pm_name, 3);
353
354   for (;;) {
355     msg_task_t task = NULL;
356     MSG_task_recv(&task, mbox);
357     {
358       double received = MSG_task_get_data_size(task);
359       /* TODO: clean up */
360       // const double alpha = 0.22L * 1.0E8 / (80L * 1024 * 1024);
361       launch_deferred_exec_process(vm, received * xfer_cpu_overhead, 1);
362     }
363
364     if (strcmp(task->name, finalize_task_name) == 0)
365       need_exit = 1;
366
367     MSG_task_destroy(task);
368
369     if (need_exit)
370       break;
371   }
372
373
374   /* deinstall the current affinity setting */
375   simcall_vm_set_affinity(vm, src_pm, 0);
376
377   simcall_vm_migrate(vm, dst_pm);
378   simcall_vm_resume(vm);
379
380   /* install the affinity setting of the VM on the destination pm */
381   {
382     msg_host_priv_t priv = msg_host_resource_priv(vm);
383
384     unsigned long affinity_mask = (unsigned long) xbt_dict_get_or_null_ext(priv->affinity_mask_db, (char *) dst_pm, sizeof(msg_host_t));
385     simcall_vm_set_affinity(vm, dst_pm, affinity_mask);
386     XBT_INFO("set affinity(0x%04lx@%s) for %s", affinity_mask, MSG_host_get_name(dst_pm), MSG_host_get_name(vm));
387   }
388
389   {
390     char *task_name = get_mig_task_name(vm_name, src_pm_name, dst_pm_name, 4);
391
392     msg_task_t task = MSG_task_create(task_name, 0, 0, NULL);
393     msg_error_t ret = MSG_task_send(task, mbox_ctl);
394     xbt_assert(ret == MSG_OK);
395
396     xbt_free(task_name);
397   }
398
399
400   xbt_free(mbox);
401   xbt_free(mbox_ctl);
402   xbt_free(finalize_task_name);
403
404   XBT_DEBUG("mig: rx_done");
405
406   return 0;
407 }
408
409 static void reset_dirty_pages(msg_vm_t vm)
410 {
411   msg_host_priv_t priv = msg_host_resource_priv(vm);
412
413   char *key = NULL;
414   xbt_dict_cursor_t cursor = NULL;
415   dirty_page_t dp = NULL;
416   xbt_dict_foreach(priv->dp_objs, cursor, key, dp) {
417     double remaining = MSG_task_get_remaining_computation(dp->task);
418     dp->prev_clock = MSG_get_clock();
419     dp->prev_remaining = remaining;
420
421     // XBT_INFO("%s@%s remaining %f", key, sg_host_name(vm), remaining);
422   }
423 }
424
425 static void start_dirty_page_tracking(msg_vm_t vm)
426 {
427   msg_host_priv_t priv = msg_host_resource_priv(vm);
428   priv->dp_enabled = 1;
429
430   reset_dirty_pages(vm);
431 }
432
433 static void stop_dirty_page_tracking(msg_vm_t vm)
434 {
435   msg_host_priv_t priv = msg_host_resource_priv(vm);
436   priv->dp_enabled = 0;
437 }
438
439 #if 0
440 /* It might be natural that we define dp_rate for each task. But, we will also
441  * have to care about how each task behavior affects the memory update behavior
442  * at the operating system level. It may not be easy to model it with a simple algorithm. */
443 double calc_updated_pages(char *key, msg_vm_t vm, dirty_page_t dp, double remaining, double clock)
444 {
445     double computed = dp->prev_remaining - remaining;
446     double duration = clock - dp->prev_clock;
447     double updated = dp->task->dp_rate * computed;
448
449     XBT_INFO("%s@%s: computated %f ops (remaining %f -> %f) in %f secs (%f -> %f)",
450         key, sg_host_name(vm), computed, dp->prev_remaining, remaining, duration, dp->prev_clock, clock);
451     XBT_INFO("%s@%s: updated %f bytes, %f Mbytes/s",
452         key, sg_host_name(vm), updated, updated / duration / 1000 / 1000);
453
454     return updated;
455 }
456 #endif
457
458 static double get_computed(char *key, msg_vm_t vm, dirty_page_t dp, double remaining, double clock)
459 {
460   double computed = dp->prev_remaining - remaining;
461   double duration = clock - dp->prev_clock;
462
463   XBT_DEBUG("%s@%s: computed %f ops (remaining %f -> %f) in %f secs (%f -> %f)",
464       key, sg_host_name(vm), computed, dp->prev_remaining, remaining, duration, dp->prev_clock, clock);
465
466   return computed;
467 }
468
469 static double lookup_computed_flop_counts(msg_vm_t vm, int stage_for_fancy_debug, int stage2_round_for_fancy_debug)
470 {
471   msg_host_priv_t priv = msg_host_resource_priv(vm);
472   double total = 0;
473
474   char *key = NULL;
475   xbt_dict_cursor_t cursor = NULL;
476   dirty_page_t dp = NULL;
477   xbt_dict_foreach(priv->dp_objs, cursor, key, dp) {
478     double remaining = MSG_task_get_remaining_computation(dp->task);
479
480          double clock = MSG_get_clock();
481
482     // total += calc_updated_pages(key, vm, dp, remaining, clock);
483     total += get_computed(key, vm, dp, remaining, clock);
484
485     dp->prev_remaining = remaining;
486     dp->prev_clock = clock;
487   }
488
489   total += priv->dp_updated_by_deleted_tasks;
490
491   XBT_DEBUG("mig-stage%d.%d: computed %f flop_counts (including %f by deleted tasks)",
492       stage_for_fancy_debug,
493       stage2_round_for_fancy_debug,
494       total, priv->dp_updated_by_deleted_tasks);
495
496
497
498   priv->dp_updated_by_deleted_tasks = 0;
499
500
501   return total;
502 }
503
504 // TODO Is this code redundant with the information provided by
505 // msg_process_t MSG_process_create(const char *name, xbt_main_func_t code, void *data, msg_host_t host)
506 void MSG_host_add_task(msg_host_t host, msg_task_t task)
507 {
508   msg_host_priv_t priv = msg_host_resource_priv(host);
509   double remaining = MSG_task_get_remaining_computation(task);
510   char *key = bprintf("%s-%p", task->name, task);
511
512   dirty_page_t dp = xbt_new0(s_dirty_page, 1);
513   dp->task = task;
514
515   /* It should be okay that we add a task onto a migrating VM. */
516   if (priv->dp_enabled) {
517     dp->prev_clock = MSG_get_clock();
518     dp->prev_remaining = remaining;
519   }
520
521   xbt_assert(xbt_dict_get_or_null(priv->dp_objs, key) == NULL);
522   xbt_dict_set(priv->dp_objs, key, dp, NULL);
523   XBT_DEBUG("add %s on %s (remaining %f, dp_enabled %d)", key, sg_host_name(host), remaining, priv->dp_enabled);
524
525   xbt_free(key);
526 }
527
528 void MSG_host_del_task(msg_host_t host, msg_task_t task)
529 {
530   msg_host_priv_t priv = msg_host_resource_priv(host);
531
532   char *key = bprintf("%s-%p", task->name, task);
533
534   dirty_page_t dp = xbt_dict_get_or_null(priv->dp_objs, key);
535   xbt_assert(dp->task == task);
536
537   /* If we are in the middle of dirty page tracking, we record how much
538    * computation has been done until now, and keep the information for the
539    * lookup_() function that will called soon. */
540   if (priv->dp_enabled) {
541     double remaining = MSG_task_get_remaining_computation(task);
542     double clock = MSG_get_clock();
543     // double updated = calc_updated_pages(key, host, dp, remaining, clock);
544     double updated = get_computed(key, host, dp, remaining, clock);
545
546     priv->dp_updated_by_deleted_tasks += updated;
547   }
548
549   xbt_dict_remove(priv->dp_objs, key);
550   xbt_free(dp);
551
552   XBT_DEBUG("del %s on %s", key, sg_host_name(host));
553
554   xbt_free(key);
555 }
556
557
558 static int deferred_exec_fun(int argc, char *argv[])
559 {
560   xbt_assert(argc == 3);
561   const char *comp_str = argv[1];
562   double computaion = atof(comp_str);
563   const char *prio_str = argv[2];
564   double prio = atof(prio_str);
565
566   msg_task_t task = MSG_task_create("__task_deferred", computaion, 0, NULL);
567   // XBT_INFO("exec deferred %f", computation);
568
569   /* dpt is the results of the VM activity */
570   MSG_task_set_priority(task, prio);
571   MSG_task_execute(task);
572
573
574
575   MSG_task_destroy(task);
576
577   return 0;
578 }
579
580 static void launch_deferred_exec_process(msg_host_t host, double computation, double prio)
581 {
582   char *pr_name = bprintf("__pr_deferred_exec_%s", MSG_host_get_name(host));
583
584   int nargvs = 4;
585   char **argv = xbt_new(char *, nargvs);
586   argv[0] = pr_name;
587   argv[1] = bprintf("%f", computation);
588   argv[2] = bprintf("%f", prio);
589   argv[3] = NULL;
590
591   MSG_process_create_with_arguments(pr_name, deferred_exec_fun, NULL, host, nargvs - 1, argv);
592 }
593
594
595 static int task_tx_overhead_fun(int argc, char *argv[])
596 {
597   xbt_assert(argc == 2);
598   const char *mbox = argv[1];
599
600   int need_exit = 0;
601
602   // XBT_INFO("start %s", mbox);
603
604   for (;;) {
605     msg_task_t task = NULL;
606     MSG_task_recv(&task, mbox);
607
608     // XBT_INFO("task->name %s", task->name);
609
610     if (strcmp(task->name, "finalize_making_overhead") == 0)
611       need_exit = 1;
612
613     // XBT_INFO("exec");
614     // MSG_task_set_priority(task, 1000000);
615     MSG_task_execute(task);
616     MSG_task_destroy(task);
617
618     if (need_exit)
619       break;
620   }
621
622   // XBT_INFO("bye");
623
624   return 0;
625 }
626
627 static void start_overhead_process(msg_task_t comm_task)
628 {
629   char *pr_name = bprintf("__pr_task_tx_overhead_%s", MSG_task_get_name(comm_task));
630   char *mbox    = bprintf("__mb_task_tx_overhead_%s", MSG_task_get_name(comm_task));
631
632   int nargvs = 3;
633   char **argv = xbt_new(char *, nargvs);
634   argv[0] = pr_name;
635   argv[1] = mbox;
636   argv[2] = NULL;
637
638   // XBT_INFO("micro start: mbox %s", mbox);
639   MSG_process_create_with_arguments(pr_name, task_tx_overhead_fun, NULL, MSG_host_self(), nargvs - 1, argv);
640 }
641
642 static void shutdown_overhead_process(msg_task_t comm_task)
643 {
644   char *mbox = bprintf("__mb_task_tx_overhead_%s", MSG_task_get_name(comm_task));
645
646   msg_task_t task = MSG_task_create("finalize_making_overhead", 0, 0, NULL);
647
648   // XBT_INFO("micro shutdown: mbox %s", mbox);
649   msg_error_t ret = MSG_task_send(task, mbox);
650   xbt_assert(ret == MSG_OK);
651
652   xbt_free(mbox);
653   // XBT_INFO("shutdown done");
654 }
655
656 static void request_overhead(msg_task_t comm_task, double computation)
657 {
658   char *mbox = bprintf("__mb_task_tx_overhead_%s", MSG_task_get_name(comm_task));
659
660   msg_task_t task = MSG_task_create("micro", computation, 0, NULL);
661
662   // XBT_INFO("req overhead");
663   msg_error_t ret = MSG_task_send(task, mbox);
664   xbt_assert(ret == MSG_OK);
665
666   xbt_free(mbox);
667 }
668
669 /* alpha is (floating_operations / bytes).
670  *
671  * When actual migration traffic was 32 mbytes/s, we observed the CPU
672  * utilization of the main thread of the Qemu process was 10 %. 
673  *   alpha = 0.1 * C / (32 * 1024 * 1024)
674  * where the CPU capacity of the PM is C flops/s.
675  *
676  * */
677 static void task_send_bounded_with_cpu_overhead(msg_task_t comm_task, char *mbox, double mig_speed, double alpha)
678 {
679   const double chunk_size = 1024 * 1024 * 10;
680   double remaining = MSG_task_get_data_size(comm_task);
681
682   start_overhead_process(comm_task);
683
684
685   while (remaining > 0) {
686     double data_size = chunk_size;
687     if (remaining < chunk_size)
688       data_size = remaining;
689
690     remaining -= data_size;
691
692     // XBT_INFO("remaining %f bytes", remaining);
693
694
695     double clock_sta = MSG_get_clock();
696
697     /* create a micro task */
698     {
699       char *mtask_name = bprintf("__micro_%s", MSG_task_get_name(comm_task));
700       msg_task_t mtask = MSG_task_create(mtask_name, 0, data_size, NULL);
701
702       request_overhead(comm_task, data_size * alpha);
703
704       msg_error_t ret = MSG_task_send(mtask, mbox);
705       xbt_assert(ret == MSG_OK);
706
707       xbt_free(mtask_name);
708     }
709
710 #if 0
711     {
712       /* In the real world, sending data involves small CPU computation. */
713       char *mtask_name = bprintf("__micro_%s", MSG_task_get_name(comm_task));
714       msg_task_t mtask = MSG_task_create(mtask_name, data_size * alpha, data_size, NULL);
715       MSG_task_execute(mtask);
716       MSG_task_destroy(mtask);
717       xbt_free(mtask_name);
718     }
719 #endif
720    
721     /* TODO */
722
723     double clock_end = MSG_get_clock();
724
725
726     if (mig_speed > 0) {
727       /*
728        * (max bandwidth) > data_size / ((elapsed time) + time_to_sleep)
729        *
730        * Thus, we get
731        *   time_to_sleep > data_size / (max bandwidth) - (elapsed time)
732        *
733        * If time_to_sleep is smaller than zero, the elapsed time was too big. We
734        * do not need a micro sleep.
735        **/
736       double time_to_sleep = data_size / mig_speed - (clock_end - clock_sta);
737       if (time_to_sleep > 0)
738         MSG_process_sleep(time_to_sleep);
739
740
741       //XBT_INFO("duration %f", clock_end - clock_sta);
742       //XBT_INFO("time_to_sleep %f", time_to_sleep);
743     }
744   }
745
746   // XBT_INFO("%s", MSG_task_get_name(comm_task));
747   shutdown_overhead_process(comm_task);
748
749 }
750
751
752 #if 0
753 static void make_cpu_overhead_of_data_transfer(msg_task_t comm_task, double init_comm_size)
754 {
755   double prev_remaining = init_comm_size;
756
757   for (;;) {
758     double remaining = MSG_task_get_remaining_communication(comm_task);
759     if (remaining == 0)
760       need_exit = 1;
761
762     double sent = prev_remaining - remaining;
763     double comp_size = sent * overhead;
764
765
766     char *comp_task_name = bprintf("__sender_overhead%s", MSG_task_get_name(comm_task));
767     msg_task_t comp_task = MSG_task_create(comp_task_name, comp_size, 0, NULL);
768     MSG_task_execute(comp_task);
769     MSG_task_destroy(comp_task);
770
771     if (need_exit)
772       break;
773
774     prev_remaining = remaining;
775
776   }
777
778   xbt_free(comp_task_name);
779 }
780 #endif
781
782 // #define USE_MICRO_TASK 1
783
784 #if 0
785 // const double alpha = 0.1L * 1.0E8 / (32L * 1024 * 1024);
786 // const double alpha = 0.25L * 1.0E8 / (85L * 1024 * 1024);
787 // const double alpha = 0.20L * 1.0E8 / (85L * 1024 * 1024);
788 // const double alpha = 0.25L * 1.0E8 / (85L * 1024 * 1024);
789 // const double alpha = 0.32L * 1.0E8 / (24L * 1024 * 1024);   // makes super good values for 32 mbytes/s
790 //const double alpha = 0.32L * 1.0E8 / (32L * 1024 * 1024);
791 // const double alpha = 0.56L * 1.0E8 / (80L * 1024 * 1024);
792 ////const double alpha = 0.20L * 1.0E8 / (80L * 1024 * 1024);
793 // const double alpha = 0.56L * 1.0E8 / (90L * 1024 * 1024);
794 // const double alpha = 0.66L * 1.0E8 / (90L * 1024 * 1024);
795 // const double alpha = 0.20L * 1.0E8 / (80L * 1024 * 1024);
796
797 /* CPU 22% when 80Mbyte/s */
798 const double alpha = 0.22L * 1.0E8 / (80L * 1024 * 1024);
799 #endif
800
801
802 static void send_migration_data(const char *vm_name, const char *src_pm_name, const char *dst_pm_name,
803     sg_size_t size, char *mbox, int stage, int stage2_round, double mig_speed, double xfer_cpu_overhead)
804 {
805   char *task_name = get_mig_task_name(vm_name, src_pm_name, dst_pm_name, stage);
806   msg_task_t task = MSG_task_create(task_name, 0, size, NULL);
807
808   /* TODO: clean up */
809
810   double clock_sta = MSG_get_clock();
811
812 #ifdef USE_MICRO_TASK
813
814   task_send_bounded_with_cpu_overhead(task, mbox, mig_speed, xfer_cpu_overhead);
815
816 #else
817   msg_error_t ret;
818   if (mig_speed > 0)
819     ret = MSG_task_send_bounded(task, mbox, mig_speed);
820   else
821     ret = MSG_task_send(task, mbox);
822   xbt_assert(ret == MSG_OK);
823 #endif
824
825   double clock_end = MSG_get_clock();
826   double duration = clock_end - clock_sta;
827   double actual_speed = size / duration;
828 #ifdef USE_MICRO_TASK
829   double cpu_utilization = size * xfer_cpu_overhead / duration / 1.0E8;
830 #else
831   double cpu_utilization = 0;
832 #endif
833
834
835
836
837   if (stage == 2){
838     XBT_DEBUG("mig-stage%d.%d: sent %llu duration %f actual_speed %f (target %f) cpu %f", stage, stage2_round, size, duration, actual_speed, mig_speed, cpu_utilization);}
839   else{
840     XBT_DEBUG("mig-stage%d: sent %llu duration %f actual_speed %f (target %f) cpu %f", stage, size, duration, actual_speed, mig_speed, cpu_utilization);
841   }
842
843   xbt_free(task_name);
844
845
846
847 #ifdef USE_MICRO_TASK
848   /* The name of a micro task starts with __micro, which does not match the
849    * special name that finalizes the receiver loop. Thus, we send the special task.
850    **/
851   {
852     if (stage == 3) {
853       char *task_name = get_mig_task_name(vm_name, src_pm_name, dst_pm_name, stage);
854       msg_task_t task = MSG_task_create(task_name, 0, 0, NULL);
855       msg_error_t ret = MSG_task_send(task, mbox);
856       xbt_assert(ret == MSG_OK);
857       xbt_free(task_name);
858     }
859   }
860 #endif
861 }
862
863 static double get_updated_size(double computed, double dp_rate, double dp_cap)
864 {
865   double updated_size = computed * dp_rate;
866   XBT_DEBUG("updated_size %f dp_rate %f", updated_size, dp_rate);
867   if (updated_size > dp_cap) {
868     // XBT_INFO("mig-stage2.%d: %f bytes updated, but cap it with the working set size %f", stage2_round, updated_size, dp_cap);
869     updated_size = dp_cap;
870   }
871
872   return updated_size;
873 }
874
875 static double send_stage1(msg_host_t vm, const char *src_pm_name, const char *dst_pm_name,
876     sg_size_t ramsize, double mig_speed, double xfer_cpu_overhead, double dp_rate, double dp_cap, double dpt_cpu_overhead)
877 {
878   const char *vm_name = MSG_host_get_name(vm);
879   char *mbox = get_mig_mbox_src_dst(vm_name, src_pm_name, dst_pm_name);
880
881   // const long chunksize = (sg_size_t)1024 * 1024 * 100;
882   const sg_size_t chunksize = (sg_size_t)1024 * 1024 * 100000;
883   sg_size_t remaining = ramsize;
884   double computed_total = 0;
885
886   while (remaining > 0) {
887     sg_size_t datasize = chunksize;
888     if (remaining < chunksize)
889       datasize = remaining;
890
891     remaining -= datasize;
892
893     send_migration_data(vm_name, src_pm_name, dst_pm_name, datasize, mbox, 1, 0, mig_speed, xfer_cpu_overhead);
894     double computed = lookup_computed_flop_counts(vm, 1, 0);
895     computed_total += computed;
896
897     // {
898     //   double updated_size = get_updated_size(computed, dp_rate, dp_cap);
899
900     //   double overhead = dpt_cpu_overhead * updated_size;
901     //   launch_deferred_exec_process(vm, overhead, 10000);
902     // }
903   }
904   xbt_free(mbox);
905   return computed_total;
906 }
907
908
909
910 static double get_threshold_value(double bandwidth, double max_downtime)
911 {
912   /* This value assumes the network link is 1Gbps. */
913   // double threshold = max_downtime * 125 * 1024 * 1024;
914   double threshold = max_downtime * bandwidth;
915
916   return threshold;
917 }
918
919 static int migration_tx_fun(int argc, char *argv[])
920 {
921   XBT_DEBUG("mig: tx_start");
922
923   xbt_assert(argc == 4);
924   const char *vm_name = argv[1];
925   const char *src_pm_name  = argv[2];
926   const char *dst_pm_name  = argv[3];
927   msg_vm_t vm = MSG_get_host_by_name(vm_name);
928
929
930   s_ws_params_t params;
931   simcall_host_get_params(vm, &params);
932   const sg_size_t ramsize   = params.ramsize;
933   const sg_size_t devsize   = params.devsize;
934   const int skip_stage1     = params.skip_stage1;
935   const int skip_stage2     = params.skip_stage2;
936   const double dp_rate      = params.dp_rate;
937   const double dp_cap       = params.dp_cap;
938   const double mig_speed    = params.mig_speed;
939   const double xfer_cpu_overhead = params.xfer_cpu_overhead;
940   const double dpt_cpu_overhead = params.dpt_cpu_overhead;
941
942   double remaining_size = ramsize + devsize;
943
944   double max_downtime = params.max_downtime;
945   if (max_downtime == 0) {
946     XBT_WARN("use the default max_downtime value 30ms");
947     max_downtime = 0.03;
948   }
949
950   double threshold = 0.00001; /* TODO: cleanup */
951
952   /* setting up parameters has done */
953
954
955   if (ramsize == 0)
956     XBT_WARN("migrate a VM, but ramsize is zero");
957
958   char *mbox = get_mig_mbox_src_dst(vm_name, src_pm_name, dst_pm_name);
959
960   XBT_INFO("mig-stage1: remaining_size %f", remaining_size);
961
962   /* Stage1: send all memory pages to the destination. */
963   start_dirty_page_tracking(vm);
964
965   double computed_during_stage1 = 0;
966   if (!skip_stage1) {
967     // send_migration_data(vm_name, src_pm_name, dst_pm_name, ramsize, mbox, 1, 0, mig_speed, xfer_cpu_overhead);
968
969     /* send ramsize, but split it */
970     double clock_prev_send = MSG_get_clock();
971
972     computed_during_stage1 = send_stage1(vm, src_pm_name, dst_pm_name, ramsize, mig_speed, xfer_cpu_overhead, dp_rate, dp_cap, dpt_cpu_overhead);
973     remaining_size -= ramsize;
974
975     double clock_post_send = MSG_get_clock();
976     double bandwidth = ramsize / (clock_post_send - clock_prev_send);
977     threshold = get_threshold_value(bandwidth, max_downtime);
978     XBT_INFO("actual bandwidth %f (MB/s), threshold %f", bandwidth / 1024 / 1024, threshold);
979   }
980
981
982   /* Stage2: send update pages iteratively until the size of remaining states
983    * becomes smaller than the threshold value. */
984   if (skip_stage2)
985     goto stage3;
986   if (max_downtime == 0) {
987     XBT_WARN("no max_downtime parameter, skip stage2");
988     goto stage3;
989   }
990
991
992   int stage2_round = 0;
993   for (;;) {
994
995     double updated_size = 0;
996     if (stage2_round == 0)  {
997       /* just after stage1, nothing has been updated. But, we have to send the data updated during stage1 */
998       updated_size = get_updated_size(computed_during_stage1, dp_rate, dp_cap);
999     } else {
1000       double computed = lookup_computed_flop_counts(vm, 2, stage2_round);
1001       updated_size = get_updated_size(computed, dp_rate, dp_cap);
1002     }
1003
1004     XBT_INFO("mig-stage 2:%d updated_size %f computed_during_stage1 %f dp_rate %f dp_cap %f",
1005         stage2_round, updated_size, computed_during_stage1, dp_rate, dp_cap);
1006
1007
1008     // if (stage2_round != 0) {
1009     //   /* during stage1, we have already created overhead tasks */
1010     //   double overhead = dpt_cpu_overhead * updated_size;
1011     //   XBT_DEBUG("updated %f overhead %f", updated_size, overhead);
1012     //   launch_deferred_exec_process(vm, overhead, 10000);
1013     // }
1014
1015
1016     {
1017       remaining_size += updated_size;
1018
1019       XBT_INFO("mig-stage2.%d: remaining_size %f (%s threshold %f)", stage2_round,
1020           remaining_size, (remaining_size < threshold) ? "<" : ">", threshold);
1021
1022       if (remaining_size < threshold)
1023         break;
1024     }
1025
1026     double clock_prev_send = MSG_get_clock();
1027
1028     send_migration_data(vm_name, src_pm_name, dst_pm_name, updated_size, mbox, 2, stage2_round, mig_speed, xfer_cpu_overhead);
1029
1030     double clock_post_send = MSG_get_clock();
1031
1032     double bandwidth = updated_size / (clock_post_send - clock_prev_send);
1033     threshold = get_threshold_value(bandwidth, max_downtime);
1034     XBT_INFO("actual bandwidth %f, threshold %f", bandwidth / 1024 / 1024, threshold);
1035
1036
1037
1038
1039
1040
1041
1042     remaining_size -= updated_size;
1043     stage2_round += 1;
1044   }
1045
1046
1047 stage3:
1048   /* Stage3: stop the VM and copy the rest of states. */
1049   XBT_INFO("mig-stage3: remaining_size %f", remaining_size);
1050   simcall_vm_suspend(vm);
1051   stop_dirty_page_tracking(vm);
1052
1053   send_migration_data(vm_name, src_pm_name, dst_pm_name, remaining_size, mbox, 3, 0, mig_speed, xfer_cpu_overhead);
1054
1055   xbt_free(mbox);
1056
1057   XBT_DEBUG("mig: tx_done");
1058
1059   return 0;
1060 }
1061
1062
1063
1064 static void do_migration(msg_vm_t vm, msg_host_t src_pm, msg_host_t dst_pm)
1065 {
1066   char *mbox_ctl = get_mig_mbox_ctl(sg_host_name(vm), sg_host_name(src_pm), sg_host_name(dst_pm));
1067
1068   {
1069     char *pr_name = get_mig_process_rx_name(sg_host_name(vm), sg_host_name(src_pm), sg_host_name(dst_pm));
1070     int nargvs = 5;
1071     char **argv = xbt_new(char *, nargvs);
1072     argv[0] = pr_name;
1073     argv[1] = xbt_strdup(sg_host_name(vm));
1074     argv[2] = xbt_strdup(sg_host_name(src_pm));
1075     argv[3] = xbt_strdup(sg_host_name(dst_pm));
1076     argv[4] = NULL;
1077
1078     MSG_process_create_with_arguments(pr_name, migration_rx_fun, NULL, dst_pm, nargvs - 1, argv);
1079   }
1080
1081   {
1082     char *pr_name = get_mig_process_tx_name(sg_host_name(vm), sg_host_name(src_pm), sg_host_name(dst_pm));
1083     int nargvs = 5;
1084     char **argv = xbt_new(char *, nargvs);
1085     argv[0] = pr_name;
1086     argv[1] = xbt_strdup(sg_host_name(vm));
1087     argv[2] = xbt_strdup(sg_host_name(src_pm));
1088     argv[3] = xbt_strdup(sg_host_name(dst_pm));
1089     argv[4] = NULL;
1090     MSG_process_create_with_arguments(pr_name, migration_tx_fun, NULL, src_pm, nargvs - 1, argv);
1091   }
1092
1093   /* wait until the migration have finished */
1094   {
1095     msg_task_t task = NULL;
1096     msg_error_t ret = MSG_task_recv(&task, mbox_ctl);
1097
1098     xbt_assert(ret == MSG_OK);
1099
1100     char *expected_task_name = get_mig_task_name(sg_host_name(vm), sg_host_name(src_pm), sg_host_name(dst_pm), 4);
1101     xbt_assert(strcmp(task->name, expected_task_name) == 0);
1102     xbt_free(expected_task_name);
1103     MSG_task_destroy(task);
1104   }
1105
1106   xbt_free(mbox_ctl);
1107 }
1108
1109
1110 /** @brief Migrate the VM to the given host.
1111  *  @ingroup msg_VMs
1112  *
1113  * FIXME: No migration cost occurs. If you want to simulate this too, you want to use a
1114  * MSG_task_send() before or after, depending on whether you want to do cold or hot
1115  * migration.
1116  */
1117 void MSG_vm_migrate(msg_vm_t vm, msg_host_t new_pm)
1118 {
1119   /* some thoughts:
1120    * - One approach is ...
1121    *   We first create a new VM (i.e., destination VM) on the destination
1122    *   physical host. The destination VM will receive the state of the source
1123    *   VM over network. We will finally destroy the source VM.
1124    *   - This behavior is similar to the way of migration in the real world.
1125    *     Even before a migration is completed, we will see a destination VM,
1126    *     consuming resources.
1127    *   - We have to relocate all processes. The existing process migraion code
1128    *     will work for this?
1129    *   - The name of the VM is a somewhat unique ID in the code. It is tricky
1130    *     for the destination VM?
1131    *
1132    * - Another one is ...
1133    *   We update the information of the given VM to place it to the destination
1134    *   physical host.
1135    *
1136    * The second one would be easier.
1137    *   
1138    */
1139
1140   msg_host_t old_pm = simcall_vm_get_pm(vm);
1141
1142   if (!MSG_vm_is_running(vm))
1143     THROWF(vm_error, 0, "VM(%s) is not running", sg_host_name(vm));
1144
1145   if (MSG_vm_is_migrating(vm))
1146     THROWF(vm_error, 0, "VM(%s) is already migrating", sg_host_name(vm));
1147
1148   msg_host_priv_t priv = msg_host_resource_priv(vm);
1149   priv->is_migrating = 1;
1150
1151   do_migration(vm, old_pm, new_pm);
1152
1153   priv->is_migrating = 0;
1154
1155   XBT_DEBUG("VM(%s) moved from PM(%s) to PM(%s)", vm->key, old_pm->key, new_pm->key);
1156
1157   #ifdef HAVE_TRACING
1158   TRACE_msg_vm_change_host(vm, old_pm, new_pm);
1159   #endif
1160 }
1161
1162
1163 /** @brief Immediately suspend the execution of all processes within the given VM.
1164  *  @ingroup msg_VMs
1165  *
1166  * This function stops the execution of the VM. All the processes on this VM
1167  * will pause. The state of the VM is preserved. We can later resume it again.
1168  *
1169  * No suspension cost occurs.
1170  */
1171 void MSG_vm_suspend(msg_vm_t vm)
1172 {
1173   if (MSG_vm_is_migrating(vm))
1174     THROWF(vm_error, 0, "VM(%s) is migrating", sg_host_name(vm));
1175
1176   simcall_vm_suspend(vm);
1177
1178   XBT_DEBUG("vm_suspend done");
1179
1180   #ifdef HAVE_TRACING
1181   TRACE_msg_vm_suspend(vm);
1182   #endif
1183 }
1184
1185
1186 /** @brief Resume the execution of the VM. All processes on the VM run again.
1187  *  @ingroup msg_VMs
1188  *
1189  * No resume cost occurs.
1190  */
1191 void MSG_vm_resume(msg_vm_t vm)
1192 {
1193   simcall_vm_resume(vm);
1194
1195   #ifdef HAVE_TRACING
1196   TRACE_msg_vm_resume(vm);
1197   #endif
1198 }
1199
1200
1201 /** @brief Immediately save the execution of all processes within the given VM.
1202  *  @ingroup msg_VMs
1203  *
1204  * This function stops the execution of the VM. All the processes on this VM
1205  * will pause. The state of the VM is preserved. We can later resume it again.
1206  *
1207  * FIXME: No suspension cost occurs. If you want to simulate this too, you want to
1208  * use a \ref MSG_file_write() before or after, depending on the exact semantic
1209  * of VM save to you.
1210  */
1211 void MSG_vm_save(msg_vm_t vm)
1212 {
1213   if (MSG_vm_is_migrating(vm))
1214     THROWF(vm_error, 0, "VM(%s) is migrating", sg_host_name(vm));
1215
1216   simcall_vm_save(vm);
1217   #ifdef HAVE_TRACING
1218   TRACE_msg_vm_save(vm);
1219   #endif
1220 }
1221
1222 /** @brief Restore the execution of the VM. All processes on the VM run again.
1223  *  @ingroup msg_VMs
1224  *
1225  * FIXME: No restore cost occurs. If you want to simulate this too, you want to
1226  * use a \ref MSG_file_read() before or after, depending on the exact semantic
1227  * of VM restore to you.
1228  */
1229 void MSG_vm_restore(msg_vm_t vm)
1230 {
1231   simcall_vm_restore(vm);
1232
1233   #ifdef HAVE_TRACING
1234   TRACE_msg_vm_restore(vm);
1235   #endif
1236 }
1237
1238
1239 /** @brief Get the physical host of a given VM.
1240  *  @ingroup msg_VMs
1241  */
1242 msg_host_t MSG_vm_get_pm(msg_vm_t vm)
1243 {
1244   return simcall_vm_get_pm(vm);
1245 }
1246
1247
1248 /** @brief Set a CPU bound for a given VM.
1249  *  @ingroup msg_VMs
1250  *
1251  * 1.
1252  * Note that in some cases MSG_task_set_bound() may not intuitively work for VMs.
1253  *
1254  * For example,
1255  *  On PM0, there are Task1 and VM0.
1256  *  On VM0, there is Task2.
1257  * Now we bound 75% to Task1\@PM0 and bound 25% to Task2\@VM0.
1258  * Then, 
1259  *  Task1\@PM0 gets 50%.
1260  *  Task2\@VM0 gets 25%.
1261  * This is NOT 75% for Task1\@PM0 and 25% for Task2\@VM0, respectively.
1262  *
1263  * This is because a VM has the dummy CPU action in the PM layer. Putting a
1264  * task on the VM does not affect the bound of the dummy CPU action. The bound
1265  * of the dummy CPU action is unlimited.
1266  *
1267  * There are some solutions for this problem. One option is to update the bound
1268  * of the dummy CPU action automatically. It should be the sum of all tasks on
1269  * the VM. But, this solution might be costly, because we have to scan all tasks
1270  * on the VM in share_resource() or we have to trap both the start and end of
1271  * task execution.
1272  *
1273  * The current solution is to use MSG_vm_set_bound(), which allows us to
1274  * directly set the bound of the dummy CPU action.
1275  *
1276  *
1277  * 2.
1278  * Note that bound == 0 means no bound (i.e., unlimited). But, if a host has
1279  * multiple CPU cores, the CPU share of a computation task (or a VM) never
1280  * exceeds the capacity of a CPU core.
1281  */
1282 void MSG_vm_set_bound(msg_vm_t vm, double bound)
1283 {
1284         return simcall_vm_set_bound(vm, bound);
1285 }
1286
1287
1288 /** @brief Set the CPU affinity of a given VM.
1289  *  @ingroup msg_VMs
1290  *
1291  * This function changes the CPU affinity of a given VM. Usage is the same as
1292  * MSG_task_set_affinity(). See the MSG_task_set_affinity() for details.
1293  */
1294 void MSG_vm_set_affinity(msg_vm_t vm, msg_host_t pm, unsigned long mask)
1295 {
1296   msg_host_priv_t priv = msg_host_resource_priv(vm);
1297
1298   if (mask == 0)
1299     xbt_dict_remove_ext(priv->affinity_mask_db, (char *) pm, sizeof(pm));
1300   else
1301     xbt_dict_set_ext(priv->affinity_mask_db, (char *) pm, sizeof(pm), (void *) mask, NULL);
1302
1303   msg_host_t pm_now = MSG_vm_get_pm(vm);
1304   if (pm_now == pm) {
1305     XBT_INFO("set affinity(0x%04lx@%s) for %s", mask, MSG_host_get_name(pm), MSG_host_get_name(vm));
1306     simcall_vm_set_affinity(vm, pm, mask);
1307   } else
1308     XBT_INFO("set affinity(0x%04lx@%s) for %s (not active now)", mask, MSG_host_get_name(pm), MSG_host_get_name(vm));
1309 }