Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
b626e431edcf38506e504df45731f4f757d2042c
[simgrid.git] / src / msg / msg_vm.c
1 /* Copyright (c) 2012-2014. The SimGrid Team.
2  * All rights reserved.                                                     */
3
4 /* This program is free software; you can redistribute it and/or modify it
5  * under the terms of the license (GNU LGPL) which comes with this package. */
6
7 /* TODO:
8  * 1. add the support of trace
9  * 2. use parallel tasks to simulate CPU overhead and remove the very
10  *    experimental code generating micro computation tasks
11  */
12
13
14
15 #include "msg_private.h"
16 #include "xbt/sysdep.h"
17 #include "xbt/log.h"
18 #include "simgrid/platf.h"
19
20 XBT_LOG_NEW_DEFAULT_SUBCATEGORY(msg_vm, msg,
21                                 "Cloud-oriented parts of the MSG API");
22
23
24 /* **** ******** GENERAL ********* **** */
25
26 /** \ingroup m_vm_management
27  * \brief Returns the value of a given vm property
28  *
29  * \param vm a vm
30  * \param name a property name
31  * \return value of a property (or NULL if property not set)
32  */
33
34 const char *MSG_vm_get_property_value(msg_vm_t vm, const char *name)
35 {
36   return MSG_host_get_property_value(vm, name);
37 }
38
39 /** \ingroup m_vm_management
40  * \brief Returns a xbt_dict_t consisting of the list of properties assigned to this host
41  *
42  * \param vm a vm
43  * \return a dict containing the properties
44  */
45 xbt_dict_t MSG_vm_get_properties(msg_vm_t vm)
46 {
47   xbt_assert((vm != NULL), "Invalid parameters (vm is NULL)");
48
49   return (simcall_host_get_properties(vm));
50 }
51
52 /** \ingroup m_host_management
53  * \brief Change the value of a given host property
54  *
55  * \param vm a vm
56  * \param name a property name
57  * \param value what to change the property to
58  * \param free_ctn the freeing function to use to kill the value on need
59  */
60 void MSG_vm_set_property_value(msg_vm_t vm, const char *name, void *value, void_f_pvoid_t free_ctn)
61 {
62   xbt_dict_set(MSG_host_get_properties(vm), name, value, free_ctn);
63 }
64
65 /** \ingroup msg_vm_management
66  * \brief Finds a msg_vm_t using its name.
67  *
68  * This is a name directory service
69  * \param name the name of a vm.
70  * \return the corresponding vm
71  *
72  * Please note that a VM is a specific host. Hence, you should give a different name
73  * for each VM/PM.
74  */
75
76 msg_vm_t MSG_vm_get_by_name(const char *name)
77 {
78         return MSG_get_host_by_name(name);
79 }
80
81 /** \ingroup m_vm_management
82  *
83  * \brief Return the name of the #msg_host_t.
84  *
85  * This functions checks whether \a host is a valid pointer or not and return
86    its name.
87  */
88 const char *MSG_vm_get_name(msg_vm_t vm)
89 {
90   return MSG_host_get_name(vm);
91 }
92
93
94 /* **** Check state of a VM **** */
95 static inline int __MSG_vm_is_state(msg_vm_t vm, e_surf_vm_state_t state)
96 {
97   return simcall_vm_get_state(vm) == state;
98 }
99
100 /** @brief Returns whether the given VM has just created, not running.
101  *  @ingroup msg_VMs
102  */
103 int MSG_vm_is_created(msg_vm_t vm)
104 {
105   return __MSG_vm_is_state(vm, SURF_VM_STATE_CREATED);
106 }
107
108 /** @brief Returns whether the given VM is currently running
109  *  @ingroup msg_VMs
110  */
111 int MSG_vm_is_running(msg_vm_t vm)
112 {
113   return __MSG_vm_is_state(vm, SURF_VM_STATE_RUNNING);
114 }
115
116 /** @brief Returns whether the given VM is currently migrating
117  *  @ingroup msg_VMs
118  */
119 int MSG_vm_is_migrating(msg_vm_t vm)
120 {
121   msg_host_priv_t priv = msg_host_resource_priv(vm);
122   return priv->is_migrating;
123 }
124
125 /** @brief Returns whether the given VM is currently suspended, not running.
126  *  @ingroup msg_VMs
127  */
128 int MSG_vm_is_suspended(msg_vm_t vm)
129 {
130   return __MSG_vm_is_state(vm, SURF_VM_STATE_SUSPENDED);
131 }
132
133 /** @brief Returns whether the given VM is being saved (FIXME: live saving or not?).
134  *  @ingroup msg_VMs
135  */
136 int MSG_vm_is_saving(msg_vm_t vm)
137 {
138   return __MSG_vm_is_state(vm, SURF_VM_STATE_SAVING);
139 }
140
141 /** @brief Returns whether the given VM has been saved, not running.
142  *  @ingroup msg_VMs
143  */
144 int MSG_vm_is_saved(msg_vm_t vm)
145 {
146   return __MSG_vm_is_state(vm, SURF_VM_STATE_SAVED);
147 }
148
149 /** @brief Returns whether the given VM is being restored, not running.
150  *  @ingroup msg_VMs
151  */
152 int MSG_vm_is_restoring(msg_vm_t vm)
153 {
154   return __MSG_vm_is_state(vm, SURF_VM_STATE_RESTORING);
155 }
156
157
158
159 /* ------------------------------------------------------------------------- */
160 /* ------------------------------------------------------------------------- */
161
162 /* **** ******** MSG vm actions ********* **** */
163
164 /** @brief Create a new VM with specified parameters.
165  *  @ingroup msg_VMs*
166  *  All parameters are in MBytes
167  *
168  */
169 msg_vm_t MSG_vm_create(msg_host_t ind_pm, const char *name,
170                        int ncpus, int ramsize,
171                        int net_cap, char *disk_path, int disksize,
172                        int mig_netspeed, int dp_intensity)
173 {
174   /* For the moment, intensity_rate is the percentage against the migration
175    * bandwidth */
176   double host_speed = MSG_get_host_speed(ind_pm);
177   double update_speed = ((double)dp_intensity/100) * mig_netspeed;
178
179   msg_vm_t vm = MSG_vm_create_core(ind_pm, name);
180   s_ws_params_t params;
181   memset(&params, 0, sizeof(params));
182   params.ramsize = (sg_size_t)ramsize * 1024 * 1024;
183   //params.overcommit = 0;
184   params.devsize = 0;
185   params.skip_stage2 = 0;
186   params.max_downtime = 0.03;
187   params.dp_rate = (update_speed * 1024 * 1024) / host_speed;
188   params.dp_cap = params.ramsize * 0.9; // assume working set memory is 90% of ramsize
189   params.mig_speed = (double)mig_netspeed * 1024 * 1024; // mig_speed
190
191   //XBT_INFO("dp rate %f migspeed : %f intensity mem : %d, updatespeed %f, hostspeed %f",params.dp_rate, params.mig_speed, dp_intensity, update_speed, host_speed);
192   simcall_host_set_params(vm, &params);
193
194   return vm;
195 }
196
197
198 /** @brief Create a new VM object. The VM is not yet started. The resource of the VM is allocated upon MSG_vm_start().
199  *  @ingroup msg_VMs*
200  *
201  * A VM is treated as a host. The name of the VM must be unique among all hosts.
202  */
203 msg_vm_t MSG_vm_create_core(msg_host_t ind_pm, const char *name)
204 {
205   /* make sure the VM of the same name does not exit */
206   {
207     void *ind_host_tmp = xbt_lib_get_elm_or_null(host_lib, name);
208     if (ind_host_tmp) {
209       XBT_ERROR("host %s already exits", name);
210       return NULL;
211     }
212   }
213
214   /* Note: ind_vm and vm_workstation point to the same elm object. */
215   msg_vm_t ind_vm = NULL;
216   void *ind_vm_workstation =  NULL;
217
218   /* Ask the SIMIX layer to create the surf vm resource */
219   ind_vm_workstation = simcall_vm_create(name, ind_pm);
220   ind_vm = (msg_vm_t) __MSG_host_create(ind_vm_workstation);
221
222   XBT_DEBUG("A new VM (%s) has been created", name);
223
224   #ifdef HAVE_TRACING
225   TRACE_msg_vm_create(name, ind_pm);
226   #endif
227
228   return ind_vm;
229 }
230
231 /** @brief Destroy a VM. Destroy the VM object from the simulation.
232  *  @ingroup msg_VMs
233  */
234 void MSG_vm_destroy(msg_vm_t vm)
235 {
236   if (MSG_vm_is_migrating(vm))
237     THROWF(vm_error, 0, "VM(%s) is migrating", sg_host_name(vm));
238
239   /* First, terminate all processes on the VM if necessary */
240   if (MSG_vm_is_running(vm))
241       simcall_vm_shutdown(vm);
242
243   if (!MSG_vm_is_created(vm)) {
244     XBT_CRITICAL("shutdown the given VM before destroying it");
245     DIE_IMPOSSIBLE;
246   }
247
248   /* Then, destroy the VM object */
249   simcall_vm_destroy(vm);
250
251   __MSG_host_destroy(vm);
252
253   #ifdef HAVE_TRACING
254   TRACE_msg_vm_end(vm);
255   #endif
256   xbt_lib_remove(host_lib, sg_host_name(vm));
257 }
258
259
260 /** @brief Start a vm (i.e., boot the guest operating system)
261  *  @ingroup msg_VMs
262  *
263  *  If the VM cannot be started, an exception is generated.
264  *
265  */
266 void MSG_vm_start(msg_vm_t vm)
267 {
268   simcall_vm_start(vm);
269
270   #ifdef HAVE_TRACING
271   TRACE_msg_vm_start(vm);
272   #endif
273 }
274
275
276
277 /** @brief Immediately kills all processes within the given VM. Any memory that they allocated will be leaked.
278  *  @ingroup msg_VMs
279  *
280  * FIXME: No extra delay occurs. If you want to simulate this too, you want to
281  * use a #MSG_process_sleep() or something. I'm not quite sure.
282  */
283 void MSG_vm_shutdown(msg_vm_t vm)
284 {
285   /* msg_vm_t equals to msg_host_t */
286   simcall_vm_shutdown(vm);
287
288   // #ifdef HAVE_TRACING
289   // TRACE_msg_vm_(vm);
290   // #endif
291 }
292
293
294
295 /* We have two mailboxes. mbox is used to transfer migration data between
296  * source and destination PMs. mbox_ctl is used to detect the completion of a
297  * migration. The names of these mailboxes must not conflict with others. */
298 static inline char *get_mig_mbox_src_dst(msg_vm_t vm, msg_host_t src_pm, msg_host_t dst_pm)
299 {
300   char *vm_name = sg_host_name(vm);
301   char *src_pm_name = sg_host_name(src_pm);
302   char *dst_pm_name = sg_host_name(dst_pm);
303
304   return bprintf("__mbox_mig_src_dst:%s(%s-%s)", vm_name, src_pm_name, dst_pm_name);
305 }
306
307 static inline char *get_mig_mbox_ctl(msg_vm_t vm, msg_host_t src_pm, msg_host_t dst_pm)
308 {
309   char *vm_name = sg_host_name(vm);
310   char *src_pm_name = sg_host_name(src_pm);
311   char *dst_pm_name = sg_host_name(dst_pm);
312
313   return bprintf("__mbox_mig_ctl:%s(%s-%s)", vm_name, src_pm_name, dst_pm_name);
314 }
315
316 static inline char *get_mig_process_tx_name(msg_vm_t vm, msg_host_t src_pm, msg_host_t dst_pm)
317 {
318   char *vm_name = sg_host_name(vm);
319   char *src_pm_name = sg_host_name(src_pm);
320   char *dst_pm_name = sg_host_name(dst_pm);
321
322   return bprintf("__pr_mig_tx:%s(%s-%s)", vm_name, src_pm_name, dst_pm_name);
323 }
324
325 static inline char *get_mig_process_rx_name(msg_vm_t vm, msg_host_t src_pm, msg_host_t dst_pm)
326 {
327   char *vm_name = sg_host_name(vm);
328   char *src_pm_name = sg_host_name(src_pm);
329   char *dst_pm_name = sg_host_name(dst_pm);
330
331   return bprintf("__pr_mig_rx:%s(%s-%s)", vm_name, src_pm_name, dst_pm_name);
332 }
333
334 static inline char *get_mig_task_name(msg_vm_t vm, msg_host_t src_pm, msg_host_t dst_pm, int stage)
335 {
336   char *vm_name = sg_host_name(vm);
337   char *src_pm_name = sg_host_name(src_pm);
338   char *dst_pm_name = sg_host_name(dst_pm);
339
340   return bprintf("__task_mig_stage%d:%s(%s-%s)", stage, vm_name, src_pm_name, dst_pm_name);
341 }
342
343 static void launch_deferred_exec_process(msg_host_t host, double computation, double prio);
344
345
346 struct migration_session {
347   msg_vm_t vm;
348   msg_host_t src_pm;
349   msg_host_t dst_pm;
350
351   /* The miration_rx process uses mbox_ctl to let the caller of do_migration()
352    * know the completion of the migration. */
353   char *mbox_ctl;
354   /* The migration_rx and migration_tx processes use mbox to transfer migration
355    * data. */
356   char *mbox;
357 };
358
359
360 static int migration_rx_fun(int argc, char *argv[])
361 {
362   XBT_DEBUG("mig: rx_start");
363
364   // The structure has been created in the do_migration function and should only be freed in the same place ;)
365   struct migration_session *ms = MSG_process_get_data(MSG_process_self());
366
367   s_ws_params_t params;
368   simcall_host_get_params(ms->vm, &params);
369   const double xfer_cpu_overhead = params.xfer_cpu_overhead;
370
371   int need_exit = 0;
372
373   char *finalize_task_name = get_mig_task_name(ms->vm, ms->src_pm, ms->dst_pm, 3);
374
375   int ret = 0; 
376   for (;;) {
377     msg_task_t task = NULL;
378     ret = MSG_task_recv(&task, ms->mbox);
379     {
380       double received ;
381       if (ret == MSG_OK)
382         received = MSG_task_get_data_size(task);
383       else{
384         // An error occured, clean the code and return
385         // The owner did not change, hence the task should be only destroyed on the other side
386         xbt_free(finalize_task_name);
387          return 0;
388       }
389       /* TODO: clean up */
390       // const double alpha = 0.22L * 1.0E8 / (80L * 1024 * 1024);
391       launch_deferred_exec_process(ms->vm, received * xfer_cpu_overhead, 1);
392     }
393
394     if (strcmp(task->name, finalize_task_name) == 0)
395       need_exit = 1;
396
397     MSG_task_destroy(task);
398
399     if (need_exit)
400       break;
401   }
402
403   // Here Stage 1, 2  and 3 have been performed. 
404   // Hence complete the migration
405
406   // Copy the reference to the vm (if SRC crashes now, do_migration will free ms)
407   // This is clearly ugly but I (Adrien) need more time to do something cleaner (actually we should copy the whole ms structure at the begining and free it at the end of each function)
408    msg_vm_t vm = ms->vm; 
409    msg_host_t src_pm = ms->src_pm; 
410    msg_host_t dst_pm = ms-> dst_pm; 
411    msg_host_priv_t priv = msg_host_resource_priv(vm);
412
413 // TODO: we have an issue, if the DST node is turning off during the three next calls, then the VM is in an inconsistent state
414 // I should check with Takahiro in order to make this portion of code atomic
415   /* deinstall the current affinity setting for the CPU */
416   simcall_vm_set_affinity(vm, src_pm, 0);
417
418   /* Update the vm location */
419   simcall_vm_migrate(vm, dst_pm);
420   
421   /* Resume the VM */
422   simcall_vm_resume(vm);
423
424   /* install the affinity setting of the VM on the destination pm */
425   {
426
427     unsigned long affinity_mask = (unsigned long) xbt_dict_get_or_null_ext(priv->affinity_mask_db, (char *)dst_pm, sizeof(msg_host_t));
428     simcall_vm_set_affinity(vm, dst_pm, affinity_mask);
429     XBT_DEBUG("set affinity(0x%04lx@%s) for %s", affinity_mask, MSG_host_get_name(dst_pm), MSG_host_get_name(vm));
430   }
431
432   {
433
434    // Now the VM is running on the new host (the migration is completed) (even if the SRC crash)
435    msg_host_priv_t priv = msg_host_resource_priv(vm);
436    priv->is_migrating = 0;
437    XBT_DEBUG("VM(%s) moved from PM(%s) to PM(%s)", ms->vm->key, ms->src_pm->key, ms->dst_pm->key);
438    #ifdef HAVE_TRACING
439     TRACE_msg_vm_change_host(ms->vm, ms->src_pm, ms->dst_pm);
440    #endif
441   
442   }
443   // Inform the SRC that the migration has been correctly performed
444   {
445     char *task_name = get_mig_task_name(ms->vm, ms->src_pm, ms->dst_pm, 4);
446     msg_task_t task = MSG_task_create(task_name, 0, 0, NULL);
447     msg_error_t ret = MSG_task_send(task, ms->mbox_ctl);
448     // xbt_assert(ret == MSG_OK);
449     if(ret == MSG_HOST_FAILURE){
450     // The DST has crashed, this is a problem has the VM since we are not sure whether SRC is considering that the VM has been correctly migrated on the DST node
451     // TODO What does it mean ? What should we do ? 
452      MSG_task_destroy(task);
453     } else if(ret == MSG_TRANSFER_FAILURE){
454     // The SRC has crashed, this is not a problem has the VM has been correctly migrated on the DST node
455         MSG_task_destroy(task);
456      }
457
458     xbt_free(task_name);
459   }
460
461
462   xbt_free(finalize_task_name);
463
464   XBT_DEBUG("mig: rx_done");
465
466   return 0;
467 }
468
469 static void reset_dirty_pages(msg_vm_t vm)
470 {
471   msg_host_priv_t priv = msg_host_resource_priv(vm);
472
473   char *key = NULL;
474   xbt_dict_cursor_t cursor = NULL;
475   dirty_page_t dp = NULL;
476   xbt_dict_foreach(priv->dp_objs, cursor, key, dp) {
477     double remaining = MSG_task_get_remaining_computation(dp->task);
478     dp->prev_clock = MSG_get_clock();
479     dp->prev_remaining = remaining;
480
481     // XBT_INFO("%s@%s remaining %f", key, sg_host_name(vm), remaining);
482   }
483 }
484
485 static void start_dirty_page_tracking(msg_vm_t vm)
486 {
487   msg_host_priv_t priv = msg_host_resource_priv(vm);
488   priv->dp_enabled = 1;
489
490   reset_dirty_pages(vm);
491 }
492
493 static void stop_dirty_page_tracking(msg_vm_t vm)
494 {
495   msg_host_priv_t priv = msg_host_resource_priv(vm);
496   priv->dp_enabled = 0;
497 }
498
499 #if 0
500 /* It might be natural that we define dp_rate for each task. But, we will also
501  * have to care about how each task behavior affects the memory update behavior
502  * at the operating system level. It may not be easy to model it with a simple algorithm. */
503 double calc_updated_pages(char *key, msg_vm_t vm, dirty_page_t dp, double remaining, double clock)
504 {
505     double computed = dp->prev_remaining - remaining;
506     double duration = clock - dp->prev_clock;
507     double updated = dp->task->dp_rate * computed;
508
509     XBT_INFO("%s@%s: computated %f ops (remaining %f -> %f) in %f secs (%f -> %f)",
510         key, sg_host_name(vm), computed, dp->prev_remaining, remaining, duration, dp->prev_clock, clock);
511     XBT_INFO("%s@%s: updated %f bytes, %f Mbytes/s",
512         key, sg_host_name(vm), updated, updated / duration / 1000 / 1000);
513
514     return updated;
515 }
516 #endif
517
518 static double get_computed(char *key, msg_vm_t vm, dirty_page_t dp, double remaining, double clock)
519 {
520   double computed = dp->prev_remaining - remaining;
521   double duration = clock - dp->prev_clock;
522
523   XBT_DEBUG("%s@%s: computed %f ops (remaining %f -> %f) in %f secs (%f -> %f)",
524       key, sg_host_name(vm), computed, dp->prev_remaining, remaining, duration, dp->prev_clock, clock);
525
526   return computed;
527 }
528
529 static double lookup_computed_flop_counts(msg_vm_t vm, int stage_for_fancy_debug, int stage2_round_for_fancy_debug)
530 {
531   msg_host_priv_t priv = msg_host_resource_priv(vm);
532   double total = 0;
533
534   char *key = NULL;
535   xbt_dict_cursor_t cursor = NULL;
536   dirty_page_t dp = NULL;
537   xbt_dict_foreach(priv->dp_objs, cursor, key, dp) {
538     double remaining = MSG_task_get_remaining_computation(dp->task);
539
540          double clock = MSG_get_clock();
541
542     // total += calc_updated_pages(key, vm, dp, remaining, clock);
543     total += get_computed(key, vm, dp, remaining, clock);
544
545     dp->prev_remaining = remaining;
546     dp->prev_clock = clock;
547   }
548
549   total += priv->dp_updated_by_deleted_tasks;
550
551   XBT_DEBUG("mig-stage%d.%d: computed %f flop_counts (including %f by deleted tasks)",
552       stage_for_fancy_debug,
553       stage2_round_for_fancy_debug,
554       total, priv->dp_updated_by_deleted_tasks);
555
556
557
558   priv->dp_updated_by_deleted_tasks = 0;
559
560
561   return total;
562 }
563
564 // TODO Is this code redundant with the information provided by
565 // msg_process_t MSG_process_create(const char *name, xbt_main_func_t code, void *data, msg_host_t host)
566 void MSG_host_add_task(msg_host_t host, msg_task_t task)
567 {
568   msg_host_priv_t priv = msg_host_resource_priv(host);
569   double remaining = MSG_task_get_remaining_computation(task);
570   char *key = bprintf("%s-%p", task->name, task);
571
572   dirty_page_t dp = xbt_new0(s_dirty_page, 1);
573   dp->task = task;
574
575   /* It should be okay that we add a task onto a migrating VM. */
576   if (priv->dp_enabled) {
577     dp->prev_clock = MSG_get_clock();
578     dp->prev_remaining = remaining;
579   }
580
581   xbt_assert(xbt_dict_get_or_null(priv->dp_objs, key) == NULL);
582   xbt_dict_set(priv->dp_objs, key, dp, NULL);
583   XBT_DEBUG("add %s on %s (remaining %f, dp_enabled %d)", key, sg_host_name(host), remaining, priv->dp_enabled);
584
585   xbt_free(key);
586 }
587
588 void MSG_host_del_task(msg_host_t host, msg_task_t task)
589 {
590   msg_host_priv_t priv = msg_host_resource_priv(host);
591
592   char *key = bprintf("%s-%p", task->name, task);
593
594   dirty_page_t dp = xbt_dict_get_or_null(priv->dp_objs, key);
595   xbt_assert(dp->task == task);
596
597   /* If we are in the middle of dirty page tracking, we record how much
598    * computation has been done until now, and keep the information for the
599    * lookup_() function that will called soon. */
600   if (priv->dp_enabled) {
601     double remaining = MSG_task_get_remaining_computation(task);
602     double clock = MSG_get_clock();
603     // double updated = calc_updated_pages(key, host, dp, remaining, clock);
604     double updated = get_computed(key, host, dp, remaining, clock);
605
606     priv->dp_updated_by_deleted_tasks += updated;
607   }
608
609   xbt_dict_remove(priv->dp_objs, key);
610   xbt_free(dp);
611
612   XBT_DEBUG("del %s on %s", key, sg_host_name(host));
613
614   xbt_free(key);
615 }
616
617
618 static int deferred_exec_fun(int argc, char *argv[])
619 {
620   xbt_assert(argc == 3);
621   const char *comp_str = argv[1];
622   double computaion = atof(comp_str);
623   const char *prio_str = argv[2];
624   double prio = atof(prio_str);
625
626   msg_task_t task = MSG_task_create("__task_deferred", computaion, 0, NULL);
627   // XBT_INFO("exec deferred %f", computation);
628
629   /* dpt is the results of the VM activity */
630   MSG_task_set_priority(task, prio);
631   MSG_task_execute(task);
632
633
634
635   MSG_task_destroy(task);
636
637   return 0;
638 }
639
640 static void launch_deferred_exec_process(msg_host_t host, double computation, double prio)
641 {
642   char *pr_name = bprintf("__pr_deferred_exec_%s", MSG_host_get_name(host));
643
644   int nargvs = 4;
645   char **argv = xbt_new(char *, nargvs);
646   argv[0] = pr_name;
647   argv[1] = bprintf("%f", computation);
648   argv[2] = bprintf("%f", prio);
649   argv[3] = NULL;
650
651   MSG_process_create_with_arguments(pr_name, deferred_exec_fun, NULL, host, nargvs - 1, argv);
652 }
653
654
655 static int task_tx_overhead_fun(int argc, char *argv[])
656 {
657   xbt_assert(argc == 2);
658   const char *mbox = argv[1];
659
660   int need_exit = 0;
661
662   // XBT_INFO("start %s", mbox);
663
664   for (;;) {
665     msg_task_t task = NULL;
666     MSG_task_recv(&task, mbox);
667
668     // XBT_INFO("task->name %s", task->name);
669
670     if (strcmp(task->name, "finalize_making_overhead") == 0)
671       need_exit = 1;
672
673     // XBT_INFO("exec");
674     // MSG_task_set_priority(task, 1000000);
675     MSG_task_execute(task);
676     MSG_task_destroy(task);
677
678     if (need_exit)
679       break;
680   }
681
682   // XBT_INFO("bye");
683
684   return 0;
685 }
686
687 static void start_overhead_process(msg_task_t comm_task)
688 {
689   char *pr_name = bprintf("__pr_task_tx_overhead_%s", MSG_task_get_name(comm_task));
690   char *mbox    = bprintf("__mb_task_tx_overhead_%s", MSG_task_get_name(comm_task));
691
692   int nargvs = 3;
693   char **argv = xbt_new(char *, nargvs);
694   argv[0] = pr_name;
695   argv[1] = mbox;
696   argv[2] = NULL;
697
698   // XBT_INFO("micro start: mbox %s", mbox);
699   MSG_process_create_with_arguments(pr_name, task_tx_overhead_fun, NULL, MSG_host_self(), nargvs - 1, argv);
700 }
701
702 static void shutdown_overhead_process(msg_task_t comm_task)
703 {
704   char *mbox = bprintf("__mb_task_tx_overhead_%s", MSG_task_get_name(comm_task));
705
706   msg_task_t task = MSG_task_create("finalize_making_overhead", 0, 0, NULL);
707
708   // XBT_INFO("micro shutdown: mbox %s", mbox);
709   msg_error_t ret = MSG_task_send(task, mbox);
710   if(ret != MSG_OK)
711     xbt_die("shutdown error - task not sent");
712
713   xbt_free(mbox);
714   // XBT_INFO("shutdown done");
715 }
716
717 static void request_overhead(msg_task_t comm_task, double computation)
718 {
719   char *mbox = bprintf("__mb_task_tx_overhead_%s", MSG_task_get_name(comm_task));
720
721   msg_task_t task = MSG_task_create("micro", computation, 0, NULL);
722
723   // XBT_INFO("req overhead");
724   msg_error_t ret = MSG_task_send(task, mbox);
725   if(ret != MSG_OK)
726     xbt_die("req overhead error - task not sent");
727
728   xbt_free(mbox);
729 }
730
731 /* alpha is (floating_operations / bytes).
732  *
733  * When actual migration traffic was 32 mbytes/s, we observed the CPU
734  * utilization of the main thread of the Qemu process was 10 %. 
735  *   alpha = 0.1 * C / (32 * 1024 * 1024)
736  * where the CPU capacity of the PM is C flops/s.
737  *
738  * */
739 static void task_send_bounded_with_cpu_overhead(msg_task_t comm_task, char *mbox, double mig_speed, double alpha)
740 {
741   const double chunk_size = 1024 * 1024 * 10;
742   double remaining = MSG_task_get_data_size(comm_task);
743
744   start_overhead_process(comm_task);
745
746
747   while (remaining > 0) {
748     double data_size = chunk_size;
749     if (remaining < chunk_size)
750       data_size = remaining;
751
752     remaining -= data_size;
753
754     // XBT_INFO("remaining %f bytes", remaining);
755
756
757     double clock_sta = MSG_get_clock();
758
759     /* create a micro task */
760     {
761       char *mtask_name = bprintf("__micro_%s", MSG_task_get_name(comm_task));
762       msg_task_t mtask = MSG_task_create(mtask_name, 0, data_size, NULL);
763
764       request_overhead(comm_task, data_size * alpha);
765
766       msg_error_t ret = MSG_task_send(mtask, mbox);
767       if(ret != MSG_OK)
768         xbt_die("migration error - task not sent");
769
770       xbt_free(mtask_name);
771     }
772
773 #if 0
774     {
775       /* In the real world, sending data involves small CPU computation. */
776       char *mtask_name = bprintf("__micro_%s", MSG_task_get_name(comm_task));
777       msg_task_t mtask = MSG_task_create(mtask_name, data_size * alpha, data_size, NULL);
778       MSG_task_execute(mtask);
779       MSG_task_destroy(mtask);
780       xbt_free(mtask_name);
781     }
782 #endif
783    
784     /* TODO */
785
786     double clock_end = MSG_get_clock();
787
788
789     if (mig_speed > 0) {
790       /*
791        * (max bandwidth) > data_size / ((elapsed time) + time_to_sleep)
792        *
793        * Thus, we get
794        *   time_to_sleep > data_size / (max bandwidth) - (elapsed time)
795        *
796        * If time_to_sleep is smaller than zero, the elapsed time was too big. We
797        * do not need a micro sleep.
798        **/
799       double time_to_sleep = data_size / mig_speed - (clock_end - clock_sta);
800       if (time_to_sleep > 0)
801         MSG_process_sleep(time_to_sleep);
802
803
804       //XBT_INFO("duration %f", clock_end - clock_sta);
805       //XBT_INFO("time_to_sleep %f", time_to_sleep);
806     }
807   }
808
809   // XBT_INFO("%s", MSG_task_get_name(comm_task));
810   shutdown_overhead_process(comm_task);
811
812 }
813
814
815 #if 0
816 static void make_cpu_overhead_of_data_transfer(msg_task_t comm_task, double init_comm_size)
817 {
818   double prev_remaining = init_comm_size;
819
820   for (;;) {
821     double remaining = MSG_task_get_remaining_communication(comm_task);
822     if (remaining == 0)
823       need_exit = 1;
824
825     double sent = prev_remaining - remaining;
826     double comp_size = sent * overhead;
827
828
829     char *comp_task_name = bprintf("__sender_overhead%s", MSG_task_get_name(comm_task));
830     msg_task_t comp_task = MSG_task_create(comp_task_name, comp_size, 0, NULL);
831     MSG_task_execute(comp_task);
832     MSG_task_destroy(comp_task);
833
834     if (need_exit)
835       break;
836
837     prev_remaining = remaining;
838
839   }
840
841   xbt_free(comp_task_name);
842 }
843 #endif
844
845 // #define USE_MICRO_TASK 1
846
847 #if 0
848 // const double alpha = 0.1L * 1.0E8 / (32L * 1024 * 1024);
849 // const double alpha = 0.25L * 1.0E8 / (85L * 1024 * 1024);
850 // const double alpha = 0.20L * 1.0E8 / (85L * 1024 * 1024);
851 // const double alpha = 0.25L * 1.0E8 / (85L * 1024 * 1024);
852 // const double alpha = 0.32L * 1.0E8 / (24L * 1024 * 1024);   // makes super good values for 32 mbytes/s
853 //const double alpha = 0.32L * 1.0E8 / (32L * 1024 * 1024);
854 // const double alpha = 0.56L * 1.0E8 / (80L * 1024 * 1024);
855 ////const double alpha = 0.20L * 1.0E8 / (80L * 1024 * 1024);
856 // const double alpha = 0.56L * 1.0E8 / (90L * 1024 * 1024);
857 // const double alpha = 0.66L * 1.0E8 / (90L * 1024 * 1024);
858 // const double alpha = 0.20L * 1.0E8 / (80L * 1024 * 1024);
859
860 /* CPU 22% when 80Mbyte/s */
861 const double alpha = 0.22L * 1.0E8 / (80L * 1024 * 1024);
862 #endif
863
864
865 static void send_migration_data(msg_vm_t vm, msg_host_t src_pm, msg_host_t dst_pm,
866     sg_size_t size, char *mbox, int stage, int stage2_round, double mig_speed, double xfer_cpu_overhead)
867 {
868   char *task_name = get_mig_task_name(vm, src_pm, dst_pm, stage);
869   msg_task_t task = MSG_task_create(task_name, 0, size, NULL);
870
871   /* TODO: clean up */
872
873   double clock_sta = MSG_get_clock();
874
875 #ifdef USE_MICRO_TASK
876
877   task_send_bounded_with_cpu_overhead(task, mbox, mig_speed, xfer_cpu_overhead);
878
879 #else
880   msg_error_t ret;
881   if (mig_speed > 0)
882     ret = MSG_task_send_bounded(task, mbox, mig_speed);
883   else
884     ret = MSG_task_send(task, mbox);
885
886 //  xbt_assert(ret == MSG_OK);
887   xbt_free(task_name);
888   if(ret == MSG_HOST_FAILURE){
889         //XBT_INFO("SRC host failed during migration of %s (stage %d)", sg_host_name(vm), stage);
890         MSG_task_destroy(task);
891         THROWF(host_error, 0, "SRC host failed during migration of %s (stage %d)", sg_host_name(vm), stage);
892    }else if(ret == MSG_TRANSFER_FAILURE){
893         //XBT_INFO("DST host failed during migration of %s (stage %d)", sg_host_name(vm), stage);
894         MSG_task_destroy(task);
895         THROWF(host_error, 0, "DST host failed during migration of %s (stage %d)", sg_host_name(vm), stage);
896   }
897 //else
898 //   XBT_INFO("Ret != FAILURE !!!!"); 
899 #endif
900
901   double clock_end = MSG_get_clock();
902   double duration = clock_end - clock_sta;
903   double actual_speed = size / duration;
904 #ifdef USE_MICRO_TASK
905   double cpu_utilization = size * xfer_cpu_overhead / duration / 1.0E8;
906 #else
907   double cpu_utilization = 0;
908 #endif
909
910   if (stage == 2){
911     XBT_DEBUG("mig-stage%d.%d: sent %llu duration %f actual_speed %f (target %f) cpu %f", stage, stage2_round, size, duration, actual_speed, mig_speed, cpu_utilization);}
912   else{
913     XBT_DEBUG("mig-stage%d: sent %llu duration %f actual_speed %f (target %f) cpu %f", stage, size, duration, actual_speed, mig_speed, cpu_utilization);
914   }
915
916
917 #ifdef USE_MICRO_TASK
918   /* The name of a micro task starts with __micro, which does not match the
919    * special name that finalizes the receiver loop. Thus, we send the special task.
920    **/
921   {
922     if (stage == 3) {
923       char *task_name = get_mig_task_name(vm_name, src_pm_name, dst_pm_name, stage);
924       msg_task_t task = MSG_task_create(task_name, 0, 0, NULL);
925       msg_error_t ret = MSG_task_send(task, mbox);
926 //      xbt_assert(ret == MSG_OK);
927       xbt_free(task_name);
928       if(ret == MSG_HOST_FAILURE){
929         //XBT_INFO("SRC host failed during migration of %s (stage 3)", sg_host_name(vm));
930         MSG_task_destroy(task);
931         THROWF(host_error, 0, "SRC host failed during migration of VM %s (stage 3)", sg_host_name(vm));
932         // The owner of the task did not change so destroy the task 
933         return; 
934       }else if(ret == MSG_TRANSFER_FAILURE){
935         //XBT_INFO("DST host failed during migration of %s (stage %d)", sg_host_name(vm), stage);
936         MSG_task_destroy(task);
937         THROWF(host_error, 0, "DST host failed during migration of %s (stage %d)", sg_host_name(vm), stage);
938         return; 
939      }
940
941     }
942   }
943 #endif
944
945 }
946
947 static double get_updated_size(double computed, double dp_rate, double dp_cap)
948 {
949   double updated_size = computed * dp_rate;
950   XBT_DEBUG("updated_size %f dp_rate %f", updated_size, dp_rate);
951   if (updated_size > dp_cap) {
952     // XBT_INFO("mig-stage2.%d: %f bytes updated, but cap it with the working set size %f", stage2_round, updated_size, dp_cap);
953     updated_size = dp_cap;
954   }
955
956   return updated_size;
957 }
958
959 static double send_stage1(struct migration_session *ms,
960     sg_size_t ramsize, double mig_speed, double xfer_cpu_overhead, double dp_rate, double dp_cap, double dpt_cpu_overhead)
961 {
962
963   // const long chunksize = (sg_size_t)1024 * 1024 * 100;
964   const sg_size_t chunksize = (sg_size_t)1024 * 1024 * 100000;
965   sg_size_t remaining = ramsize;
966   double computed_total = 0;
967
968   while (remaining > 0) {
969     sg_size_t datasize = chunksize;
970     if (remaining < chunksize)
971       datasize = remaining;
972
973     remaining -= datasize;
974     send_migration_data(ms->vm, ms->src_pm, ms->dst_pm, datasize, ms->mbox, 1, 0, mig_speed, xfer_cpu_overhead);
975     double computed = lookup_computed_flop_counts(ms->vm, 1, 0);
976     computed_total += computed;
977
978     // {
979     //   double updated_size = get_updated_size(computed, dp_rate, dp_cap);
980
981     //   double overhead = dpt_cpu_overhead * updated_size;
982     //   launch_deferred_exec_process(vm, overhead, 10000);
983     // }
984   }
985
986   return computed_total;
987 }
988
989
990
991 static double get_threshold_value(double bandwidth, double max_downtime)
992 {
993   /* This value assumes the network link is 1Gbps. */
994   // double threshold = max_downtime * 125 * 1024 * 1024;
995   double threshold = max_downtime * bandwidth;
996
997   return threshold;
998 }
999
1000 static int migration_tx_fun(int argc, char *argv[])
1001 {
1002   XBT_DEBUG("mig: tx_start");
1003
1004   // Note that the ms structure has been allocated in do_migration and hence should be freed in the same function ;) 
1005   struct migration_session *ms = MSG_process_get_data(MSG_process_self());
1006
1007   s_ws_params_t params;
1008   simcall_host_get_params(ms->vm, &params);
1009   const sg_size_t ramsize   = params.ramsize;
1010   const sg_size_t devsize   = params.devsize;
1011   const int skip_stage1     = params.skip_stage1;
1012   const int skip_stage2     = params.skip_stage2;
1013   const double dp_rate      = params.dp_rate;
1014   const double dp_cap       = params.dp_cap;
1015   const double mig_speed    = params.mig_speed;
1016   const double xfer_cpu_overhead = params.xfer_cpu_overhead;
1017   const double dpt_cpu_overhead = params.dpt_cpu_overhead;
1018
1019   msg_vm_t vm=ms->vm; 
1020
1021   double remaining_size = ramsize + devsize;
1022
1023   double max_downtime = params.max_downtime;
1024   if (max_downtime == 0) {
1025     XBT_WARN("use the default max_downtime value 30ms");
1026     max_downtime = 0.03;
1027   }
1028
1029   double threshold = 0.00001; /* TODO: cleanup */
1030
1031   /* setting up parameters has done */
1032
1033
1034   if (ramsize == 0)
1035     XBT_WARN("migrate a VM, but ramsize is zero");
1036
1037
1038   XBT_DEBUG("mig-stage1: remaining_size %f", remaining_size);
1039
1040   /* Stage1: send all memory pages to the destination. */
1041   start_dirty_page_tracking(vm);
1042
1043   double computed_during_stage1 = 0;
1044   if (!skip_stage1) {
1045     // send_migration_data(vm_name, src_pm_name, dst_pm_name, ramsize, mbox, 1, 0, mig_speed, xfer_cpu_overhead);
1046
1047     /* send ramsize, but split it */
1048     double clock_prev_send = MSG_get_clock();
1049
1050     TRY{
1051         computed_during_stage1 = send_stage1(ms, ramsize, mig_speed, xfer_cpu_overhead, dp_rate, dp_cap, dpt_cpu_overhead);
1052     } CATCH_ANONYMOUS{
1053       //hostfailure (if you want to know whether this is the SRC or the DST please check directly in send_migration_data code)
1054       // Stop the dirty page tracking an return (there is no memory space to release) 
1055       stop_dirty_page_tracking(vm);
1056       return 0; 
1057     }
1058     remaining_size -= ramsize;
1059
1060     double clock_post_send = MSG_get_clock();
1061     double bandwidth = ramsize / (clock_post_send - clock_prev_send);
1062     threshold = get_threshold_value(bandwidth, max_downtime);
1063     XBT_DEBUG("actual bandwidth %f (MB/s), threshold %f", bandwidth / 1024 / 1024, threshold);
1064   }
1065
1066
1067   /* Stage2: send update pages iteratively until the size of remaining states
1068    * becomes smaller than the threshold value. */
1069   if (skip_stage2)
1070     goto stage3;
1071   if (max_downtime == 0) {
1072     XBT_WARN("no max_downtime parameter, skip stage2");
1073     goto stage3;
1074   }
1075
1076
1077   int stage2_round = 0;
1078   for (;;) {
1079
1080     double updated_size = 0;
1081     if (stage2_round == 0)  {
1082       /* just after stage1, nothing has been updated. But, we have to send the data updated during stage1 */
1083       updated_size = get_updated_size(computed_during_stage1, dp_rate, dp_cap);
1084     } else {
1085       double computed = lookup_computed_flop_counts(ms->vm, 2, stage2_round);
1086       updated_size = get_updated_size(computed, dp_rate, dp_cap);
1087     }
1088
1089     XBT_DEBUG("mig-stage 2:%d updated_size %f computed_during_stage1 %f dp_rate %f dp_cap %f",
1090         stage2_round, updated_size, computed_during_stage1, dp_rate, dp_cap);
1091
1092
1093     // if (stage2_round != 0) {
1094     //   /* during stage1, we have already created overhead tasks */
1095     //   double overhead = dpt_cpu_overhead * updated_size;
1096     //   XBT_DEBUG("updated %f overhead %f", updated_size, overhead);
1097     //   launch_deferred_exec_process(vm, overhead, 10000);
1098     // }
1099
1100
1101     {
1102       remaining_size += updated_size;
1103
1104       XBT_DEBUG("mig-stage2.%d: remaining_size %f (%s threshold %f)", stage2_round,
1105           remaining_size, (remaining_size < threshold) ? "<" : ">", threshold);
1106
1107       if (remaining_size < threshold)
1108         break;
1109     }
1110
1111     double clock_prev_send = MSG_get_clock();
1112     TRY{
1113       send_migration_data(ms->vm, ms->src_pm, ms->dst_pm, updated_size, ms->mbox, 2, stage2_round, mig_speed, xfer_cpu_overhead);
1114     }CATCH_ANONYMOUS{
1115       //hostfailure (if you want to know whether this is the SRC or the DST please check directly in send_migration_data code)
1116       // Stop the dirty page tracking an return (there is no memory space to release) 
1117       stop_dirty_page_tracking(vm);
1118       return 0; 
1119     }
1120     double clock_post_send = MSG_get_clock();
1121
1122     double bandwidth = updated_size / (clock_post_send - clock_prev_send);
1123     threshold = get_threshold_value(bandwidth, max_downtime);
1124     XBT_DEBUG("actual bandwidth %f, threshold %f", bandwidth / 1024 / 1024, threshold);
1125
1126
1127     remaining_size -= updated_size;
1128     stage2_round += 1;
1129   }
1130
1131
1132 stage3:
1133   /* Stage3: stop the VM and copy the rest of states. */
1134   XBT_DEBUG("mig-stage3: remaining_size %f", remaining_size);
1135   simcall_vm_suspend(vm);
1136   stop_dirty_page_tracking(vm);
1137  
1138  TRY{
1139     send_migration_data(ms->vm, ms->src_pm, ms->dst_pm, remaining_size, ms->mbox, 3, 0, mig_speed, xfer_cpu_overhead);
1140   }CATCH_ANONYMOUS{
1141       //hostfailure (if you want to know whether this is the SRC or the DST please check directly in send_migration_data code)
1142       // Stop the dirty page tracking an return (there is no memory space to release) 
1143       simcall_vm_resume(vm);
1144       return 0; 
1145     }
1146   
1147  // At that point the Migration is considered valid for the SRC node but remind that the DST side should relocate effectively the VM on the DST node. 
1148
1149   XBT_DEBUG("mig: tx_done");
1150
1151   return 0;
1152 }
1153
1154
1155
1156 static int do_migration(msg_vm_t vm, msg_host_t src_pm, msg_host_t dst_pm)
1157 {
1158   struct migration_session *ms = xbt_new(struct migration_session, 1);
1159   ms->vm = vm;
1160   ms->src_pm = src_pm;
1161   ms->dst_pm = dst_pm;
1162   ms->mbox_ctl = get_mig_mbox_ctl(vm, src_pm, dst_pm);
1163   ms->mbox = get_mig_mbox_src_dst(vm, src_pm, dst_pm);
1164   
1165
1166   char *pr_rx_name = get_mig_process_rx_name(vm, src_pm, dst_pm);
1167   char *pr_tx_name = get_mig_process_tx_name(vm, src_pm, dst_pm);
1168
1169 //  MSG_process_create(pr_rx_name, migration_rx_fun, ms, dst_pm);
1170 //  MSG_process_create(pr_tx_name, migration_tx_fun, ms, src_pm);
1171 #if 1
1172  {
1173  char **argv = xbt_new(char *, 2);
1174  argv[0] = pr_rx_name;
1175  argv[1] = NULL;
1176  MSG_process_create_with_arguments(pr_rx_name, migration_rx_fun, ms, dst_pm, 1, argv);
1177  }
1178  {
1179  char **argv = xbt_new(char *, 2);
1180  argv[0] = pr_tx_name;
1181  argv[1] = NULL;
1182  MSG_process_create_with_arguments(pr_tx_name, migration_tx_fun, ms, src_pm, 1, argv);
1183  }
1184 #endif
1185
1186   /* wait until the migration have finished or on error has occured */
1187   {
1188     XBT_DEBUG("wait for reception of the final ACK (i.e. migration has been correctly performed");
1189     msg_task_t task = NULL;
1190     msg_error_t ret = MSG_TIMEOUT; 
1191     while (ret == MSG_TIMEOUT && MSG_host_is_on(dst_pm)) //Wait while you receive the message o
1192      ret = MSG_task_receive_with_timeout(&task, ms->mbox_ctl, 10);
1193
1194     xbt_free(ms->mbox_ctl);
1195     xbt_free(ms->mbox);
1196     xbt_free(ms);
1197     
1198     //xbt_assert(ret == MSG_OK);
1199     if(ret == MSG_HOST_FAILURE){
1200         // Note that since the communication failed, the owner did not change and the task should be destroyed on the other side.
1201         // Hence, just throw the execption
1202         //XBT_INFO("SRC crashes, throw an exception (m-control)");
1203         return -1; 
1204     } 
1205     else if((ret == MSG_TRANSFER_FAILURE) || (ret == MSG_TIMEOUT)){ // MSG_TIMEOUT here means that MSG_host_is_avail() returned false.
1206         //XBT_INFO("DST crashes, throw an exception (m-control)");
1207         return -2;  
1208     }
1209
1210     
1211     char *expected_task_name = get_mig_task_name(vm, src_pm, dst_pm, 4);
1212     xbt_assert(strcmp(task->name, expected_task_name) == 0);
1213     xbt_free(expected_task_name);
1214     MSG_task_destroy(task);
1215     return 0; 
1216   }
1217 }
1218
1219
1220
1221
1222 /** @brief Migrate the VM to the given host.
1223  *  @ingroup msg_VMs
1224  *
1225  * FIXME: No migration cost occurs. If you want to simulate this too, you want to use a
1226  * MSG_task_send() before or after, depending on whether you want to do cold or hot
1227  * migration.
1228  */
1229 void MSG_vm_migrate(msg_vm_t vm, msg_host_t new_pm)
1230 {
1231   /* some thoughts:
1232    * - One approach is ...
1233    *   We first create a new VM (i.e., destination VM) on the destination
1234    *   physical host. The destination VM will receive the state of the source
1235    *   VM over network. We will finally destroy the source VM.
1236    *   - This behavior is similar to the way of migration in the real world.
1237    *     Even before a migration is completed, we will see a destination VM,
1238    *     consuming resources.
1239    *   - We have to relocate all processes. The existing process migraion code
1240    *     will work for this?
1241    *   - The name of the VM is a somewhat unique ID in the code. It is tricky
1242    *     for the destination VM?
1243    *
1244    * - Another one is ...
1245    *   We update the information of the given VM to place it to the destination
1246    *   physical host.
1247    *
1248    * The second one would be easier.
1249    *   
1250    */
1251
1252   msg_host_t old_pm = simcall_vm_get_pm(vm);
1253
1254   if (!MSG_vm_is_running(vm))
1255     THROWF(vm_error, 0, "VM(%s) is not running", sg_host_name(vm));
1256
1257   if (MSG_vm_is_migrating(vm))
1258     THROWF(vm_error, 0, "VM(%s) is already migrating", sg_host_name(vm));
1259
1260   msg_host_priv_t priv = msg_host_resource_priv(vm);
1261   priv->is_migrating = 1;
1262
1263   {
1264    
1265     int ret = do_migration(vm, old_pm, new_pm); 
1266     if (ret == -1){
1267      priv->is_migrating = 0;
1268      THROWF(host_error, 0, "SRC host failed during migration");
1269     }
1270     else if(ret == -2){ 
1271      priv->is_migrating = 0;
1272      THROWF(host_error, 0, "DST host failed during migration");
1273     }
1274   }
1275
1276   // This part is done in the RX code, to handle the corner case where SRC can crash just at the end of the migration process
1277   // In that case, the VM has been already assigned to the DST node.
1278   //XBT_DEBUG("VM(%s) moved from PM(%s) to PM(%s)", vm->key, old_pm->key, new_pm->key);
1279   //#ifdef HAVE_TRACING
1280   //TRACE_msg_vm_change_host(vm, old_pm, new_pm);
1281   //#endif
1282 }
1283
1284
1285 /** @brief Immediately suspend the execution of all processes within the given VM.
1286  *  @ingroup msg_VMs
1287  *
1288  * This function stops the execution of the VM. All the processes on this VM
1289  * will pause. The state of the VM is preserved. We can later resume it again.
1290  *
1291  * No suspension cost occurs.
1292  */
1293 void MSG_vm_suspend(msg_vm_t vm)
1294 {
1295   if (MSG_vm_is_migrating(vm))
1296     THROWF(vm_error, 0, "VM(%s) is migrating", sg_host_name(vm));
1297
1298   simcall_vm_suspend(vm);
1299
1300   XBT_DEBUG("vm_suspend done");
1301
1302   #ifdef HAVE_TRACING
1303   TRACE_msg_vm_suspend(vm);
1304   #endif
1305 }
1306
1307
1308 /** @brief Resume the execution of the VM. All processes on the VM run again.
1309  *  @ingroup msg_VMs
1310  *
1311  * No resume cost occurs.
1312  */
1313 void MSG_vm_resume(msg_vm_t vm)
1314 {
1315   simcall_vm_resume(vm);
1316
1317   #ifdef HAVE_TRACING
1318   TRACE_msg_vm_resume(vm);
1319   #endif
1320 }
1321
1322
1323 /** @brief Immediately save the execution of all processes within the given VM.
1324  *  @ingroup msg_VMs
1325  *
1326  * This function stops the execution of the VM. All the processes on this VM
1327  * will pause. The state of the VM is preserved. We can later resume it again.
1328  *
1329  * FIXME: No suspension cost occurs. If you want to simulate this too, you want to
1330  * use a \ref MSG_file_write() before or after, depending on the exact semantic
1331  * of VM save to you.
1332  */
1333 void MSG_vm_save(msg_vm_t vm)
1334 {
1335   if (MSG_vm_is_migrating(vm))
1336     THROWF(vm_error, 0, "VM(%s) is migrating", sg_host_name(vm));
1337
1338   simcall_vm_save(vm);
1339   #ifdef HAVE_TRACING
1340   TRACE_msg_vm_save(vm);
1341   #endif
1342 }
1343
1344 /** @brief Restore the execution of the VM. All processes on the VM run again.
1345  *  @ingroup msg_VMs
1346  *
1347  * FIXME: No restore cost occurs. If you want to simulate this too, you want to
1348  * use a \ref MSG_file_read() before or after, depending on the exact semantic
1349  * of VM restore to you.
1350  */
1351 void MSG_vm_restore(msg_vm_t vm)
1352 {
1353   simcall_vm_restore(vm);
1354
1355   #ifdef HAVE_TRACING
1356   TRACE_msg_vm_restore(vm);
1357   #endif
1358 }
1359
1360
1361 /** @brief Get the physical host of a given VM.
1362  *  @ingroup msg_VMs
1363  */
1364 msg_host_t MSG_vm_get_pm(msg_vm_t vm)
1365 {
1366   return simcall_vm_get_pm(vm);
1367 }
1368
1369
1370 /** @brief Set a CPU bound for a given VM.
1371  *  @ingroup msg_VMs
1372  *
1373  * 1.
1374  * Note that in some cases MSG_task_set_bound() may not intuitively work for VMs.
1375  *
1376  * For example,
1377  *  On PM0, there are Task1 and VM0.
1378  *  On VM0, there is Task2.
1379  * Now we bound 75% to Task1\@PM0 and bound 25% to Task2\@VM0.
1380  * Then, 
1381  *  Task1\@PM0 gets 50%.
1382  *  Task2\@VM0 gets 25%.
1383  * This is NOT 75% for Task1\@PM0 and 25% for Task2\@VM0, respectively.
1384  *
1385  * This is because a VM has the dummy CPU action in the PM layer. Putting a
1386  * task on the VM does not affect the bound of the dummy CPU action. The bound
1387  * of the dummy CPU action is unlimited.
1388  *
1389  * There are some solutions for this problem. One option is to update the bound
1390  * of the dummy CPU action automatically. It should be the sum of all tasks on
1391  * the VM. But, this solution might be costly, because we have to scan all tasks
1392  * on the VM in share_resource() or we have to trap both the start and end of
1393  * task execution.
1394  *
1395  * The current solution is to use MSG_vm_set_bound(), which allows us to
1396  * directly set the bound of the dummy CPU action.
1397  *
1398  *
1399  * 2.
1400  * Note that bound == 0 means no bound (i.e., unlimited). But, if a host has
1401  * multiple CPU cores, the CPU share of a computation task (or a VM) never
1402  * exceeds the capacity of a CPU core.
1403  */
1404 void MSG_vm_set_bound(msg_vm_t vm, double bound)
1405 {
1406         return simcall_vm_set_bound(vm, bound);
1407 }
1408
1409
1410 /** @brief Set the CPU affinity of a given VM.
1411  *  @ingroup msg_VMs
1412  *
1413  * This function changes the CPU affinity of a given VM. Usage is the same as
1414  * MSG_task_set_affinity(). See the MSG_task_set_affinity() for details.
1415  */
1416 void MSG_vm_set_affinity(msg_vm_t vm, msg_host_t pm, unsigned long mask)
1417 {
1418   msg_host_priv_t priv = msg_host_resource_priv(vm);
1419
1420   if (mask == 0)
1421     xbt_dict_remove_ext(priv->affinity_mask_db, (char *) pm, sizeof(pm));
1422   else
1423     xbt_dict_set_ext(priv->affinity_mask_db, (char *) pm, sizeof(pm), (void *) mask, NULL);
1424
1425   msg_host_t pm_now = MSG_vm_get_pm(vm);
1426   if (pm_now == pm) {
1427     XBT_DEBUG("set affinity(0x%04lx@%s) for %s", mask, MSG_host_get_name(pm), MSG_host_get_name(vm));
1428     simcall_vm_set_affinity(vm, pm, mask);
1429   } else
1430     XBT_DEBUG("set affinity(0x%04lx@%s) for %s (not active now)", mask, MSG_host_get_name(pm), MSG_host_get_name(vm));
1431 }