Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
64126013607a8eb4532586a9d3470f8f5208a465
[simgrid.git] / src / msg / msg_vm.c
1 /* Copyright (c) 2012-2014. The SimGrid Team.
2  * All rights reserved.                                                     */
3
4 /* This program is free software; you can redistribute it and/or modify it
5  * under the terms of the license (GNU LGPL) which comes with this package. */
6
7 /* TODO:
8  * 1. add the support of trace
9  * 2. use parallel tasks to simulate CPU overhead and remove the very
10  *    experimental code generating micro computation tasks
11  */
12
13
14
15 #include "msg_private.h"
16 #include "xbt/sysdep.h"
17 #include "xbt/log.h"
18 #include "simgrid/platf.h"
19
20 XBT_LOG_NEW_DEFAULT_SUBCATEGORY(msg_vm, msg,
21                                 "Cloud-oriented parts of the MSG API");
22
23
24 /* **** ******** GENERAL ********* **** */
25
26 /** \ingroup m_vm_management
27  * \brief Returns the value of a given vm property
28  *
29  * \param vm a vm
30  * \param name a property name
31  * \return value of a property (or NULL if property not set)
32  */
33
34 const char *MSG_vm_get_property_value(msg_vm_t vm, const char *name)
35 {
36   return MSG_host_get_property_value(vm, name);
37 }
38
39 /** \ingroup m_vm_management
40  * \brief Returns a xbt_dict_t consisting of the list of properties assigned to this host
41  *
42  * \param vm a vm
43  * \return a dict containing the properties
44  */
45 xbt_dict_t MSG_vm_get_properties(msg_vm_t vm)
46 {
47   xbt_assert((vm != NULL), "Invalid parameters (vm is NULL)");
48
49   return (simcall_host_get_properties(vm));
50 }
51
52 /** \ingroup m_host_management
53  * \brief Change the value of a given host property
54  *
55  * \param vm a vm
56  * \param name a property name
57  * \param value what to change the property to
58  * \param free_ctn the freeing function to use to kill the value on need
59  */
60 void MSG_vm_set_property_value(msg_vm_t vm, const char *name, void *value, void_f_pvoid_t free_ctn)
61 {
62   xbt_dict_set(MSG_host_get_properties(vm), name, value, free_ctn);
63 }
64
65 /** \ingroup msg_vm_management
66  * \brief Finds a msg_vm_t using its name.
67  *
68  * This is a name directory service
69  * \param name the name of a vm.
70  * \return the corresponding vm
71  *
72  * Please note that a VM is a specific host. Hence, you should give a different name
73  * for each VM/PM.
74  */
75
76 msg_vm_t MSG_vm_get_by_name(const char *name)
77 {
78         return MSG_get_host_by_name(name);
79 }
80
81 /** \ingroup m_vm_management
82  *
83  * \brief Return the name of the #msg_host_t.
84  *
85  * This functions checks whether \a host is a valid pointer or not and return
86    its name.
87  */
88 const char *MSG_vm_get_name(msg_vm_t vm)
89 {
90   return MSG_host_get_name(vm);
91 }
92
93
94 /* **** Check state of a VM **** */
95 static inline int __MSG_vm_is_state(msg_vm_t vm, e_surf_vm_state_t state)
96 {
97   return simcall_vm_get_state(vm) == state;
98 }
99
100 /** @brief Returns whether the given VM has just created, not running.
101  *  @ingroup msg_VMs
102  */
103 int MSG_vm_is_created(msg_vm_t vm)
104 {
105   return __MSG_vm_is_state(vm, SURF_VM_STATE_CREATED);
106 }
107
108 /** @brief Returns whether the given VM is currently running
109  *  @ingroup msg_VMs
110  */
111 int MSG_vm_is_running(msg_vm_t vm)
112 {
113   return __MSG_vm_is_state(vm, SURF_VM_STATE_RUNNING);
114 }
115
116 /** @brief Returns whether the given VM is currently migrating
117  *  @ingroup msg_VMs
118  */
119 int MSG_vm_is_migrating(msg_vm_t vm)
120 {
121   msg_host_priv_t priv = msg_host_resource_priv(vm);
122   return priv->is_migrating;
123 }
124
125 /** @brief Returns whether the given VM is currently suspended, not running.
126  *  @ingroup msg_VMs
127  */
128 int MSG_vm_is_suspended(msg_vm_t vm)
129 {
130   return __MSG_vm_is_state(vm, SURF_VM_STATE_SUSPENDED);
131 }
132
133 /** @brief Returns whether the given VM is being saved (FIXME: live saving or not?).
134  *  @ingroup msg_VMs
135  */
136 int MSG_vm_is_saving(msg_vm_t vm)
137 {
138   return __MSG_vm_is_state(vm, SURF_VM_STATE_SAVING);
139 }
140
141 /** @brief Returns whether the given VM has been saved, not running.
142  *  @ingroup msg_VMs
143  */
144 int MSG_vm_is_saved(msg_vm_t vm)
145 {
146   return __MSG_vm_is_state(vm, SURF_VM_STATE_SAVED);
147 }
148
149 /** @brief Returns whether the given VM is being restored, not running.
150  *  @ingroup msg_VMs
151  */
152 int MSG_vm_is_restoring(msg_vm_t vm)
153 {
154   return __MSG_vm_is_state(vm, SURF_VM_STATE_RESTORING);
155 }
156
157
158
159 /* ------------------------------------------------------------------------- */
160 /* ------------------------------------------------------------------------- */
161
162 /* **** ******** MSG vm actions ********* **** */
163
164 /** @brief Create a new VM with specified parameters.
165  *  @ingroup msg_VMs*
166  *  All parameters are in MBytes
167  *
168  */
169 msg_vm_t MSG_vm_create(msg_host_t ind_pm, const char *name,
170                        int ncpus, int ramsize,
171                        int net_cap, char *disk_path, int disksize,
172                        int mig_netspeed, int dp_intensity)
173 {
174   /* For the moment, intensity_rate is the percentage against the migration
175    * bandwidth */
176   double host_speed = MSG_get_host_speed(ind_pm);
177   double update_speed = ((double)dp_intensity/100) * mig_netspeed;
178
179   msg_vm_t vm = MSG_vm_create_core(ind_pm, name);
180   s_ws_params_t params;
181   memset(&params, 0, sizeof(params));
182   params.ramsize = (sg_size_t)ramsize * 1024 * 1024;
183   //params.overcommit = 0;
184   params.devsize = 0;
185   params.skip_stage2 = 0;
186   params.max_downtime = 0.03;
187   params.dp_rate = (update_speed * 1024 * 1024) / host_speed;
188   params.dp_cap = params.ramsize * 0.9; // assume working set memory is 90% of ramsize
189   params.mig_speed = (double)mig_netspeed * 1024 * 1024; // mig_speed
190
191   //XBT_INFO("dp rate %f migspeed : %f intensity mem : %d, updatespeed %f, hostspeed %f",params.dp_rate, params.mig_speed, dp_intensity, update_speed, host_speed);
192   simcall_host_set_params(vm, &params);
193
194   return vm;
195 }
196
197
198 /** @brief Create a new VM object. The VM is not yet started. The resource of the VM is allocated upon MSG_vm_start().
199  *  @ingroup msg_VMs*
200  *
201  * A VM is treated as a host. The name of the VM must be unique among all hosts.
202  */
203 msg_vm_t MSG_vm_create_core(msg_host_t ind_pm, const char *name)
204 {
205   /* make sure the VM of the same name does not exit */
206   {
207     void *ind_host_tmp = xbt_lib_get_elm_or_null(host_lib, name);
208     if (ind_host_tmp) {
209       XBT_ERROR("host %s already exits", name);
210       return NULL;
211     }
212   }
213
214   /* Note: ind_vm and vm_workstation point to the same elm object. */
215   msg_vm_t ind_vm = NULL;
216   void *ind_vm_workstation =  NULL;
217
218   /* Ask the SIMIX layer to create the surf vm resource */
219   ind_vm_workstation = simcall_vm_create(name, ind_pm);
220   ind_vm = (msg_vm_t) __MSG_host_create(ind_vm_workstation);
221
222   XBT_DEBUG("A new VM (%s) has been created", name);
223
224   #ifdef HAVE_TRACING
225   TRACE_msg_vm_create(name, ind_pm);
226   #endif
227
228   return ind_vm;
229 }
230
231 /** @brief Destroy a VM. Destroy the VM object from the simulation.
232  *  @ingroup msg_VMs
233  */
234 void MSG_vm_destroy(msg_vm_t vm)
235 {
236   if (MSG_vm_is_migrating(vm))
237     THROWF(vm_error, 0, "VM(%s) is migrating", sg_host_name(vm));
238
239   /* First, terminate all processes on the VM if necessary */
240   if (MSG_vm_is_running(vm))
241       simcall_vm_shutdown(vm);
242
243   if (!MSG_vm_is_created(vm)) {
244     XBT_CRITICAL("shutdown the given VM before destroying it");
245     DIE_IMPOSSIBLE;
246   }
247
248   /* Then, destroy the VM object */
249   simcall_vm_destroy(vm);
250
251   __MSG_host_destroy(vm);
252
253   #ifdef HAVE_TRACING
254   TRACE_msg_vm_end(vm);
255   #endif
256 }
257
258
259 /** @brief Start a vm (i.e., boot the guest operating system)
260  *  @ingroup msg_VMs
261  *
262  *  If the VM cannot be started, an exception is generated.
263  *
264  */
265 void MSG_vm_start(msg_vm_t vm)
266 {
267   simcall_vm_start(vm);
268
269   #ifdef HAVE_TRACING
270   TRACE_msg_vm_start(vm);
271   #endif
272 }
273
274
275
276 /** @brief Immediately kills all processes within the given VM. Any memory that they allocated will be leaked.
277  *  @ingroup msg_VMs
278  *
279  * FIXME: No extra delay occurs. If you want to simulate this too, you want to
280  * use a #MSG_process_sleep() or something. I'm not quite sure.
281  */
282 void MSG_vm_shutdown(msg_vm_t vm)
283 {
284   /* msg_vm_t equals to msg_host_t */
285   simcall_vm_shutdown(vm);
286
287   // #ifdef HAVE_TRACING
288   // TRACE_msg_vm_(vm);
289   // #endif
290 }
291
292
293
294 /* We have two mailboxes. mbox is used to transfer migration data between
295  * source and destination PMs. mbox_ctl is used to detect the completion of a
296  * migration. The names of these mailboxes must not conflict with others. */
297 static inline char *get_mig_mbox_src_dst(msg_vm_t vm, msg_host_t src_pm, msg_host_t dst_pm)
298 {
299   char *vm_name = sg_host_name(vm);
300   char *src_pm_name = sg_host_name(src_pm);
301   char *dst_pm_name = sg_host_name(dst_pm);
302
303   return bprintf("__mbox_mig_src_dst:%s(%s-%s)", vm_name, src_pm_name, dst_pm_name);
304 }
305
306 static inline char *get_mig_mbox_ctl(msg_vm_t vm, msg_host_t src_pm, msg_host_t dst_pm)
307 {
308   char *vm_name = sg_host_name(vm);
309   char *src_pm_name = sg_host_name(src_pm);
310   char *dst_pm_name = sg_host_name(dst_pm);
311
312   return bprintf("__mbox_mig_ctl:%s(%s-%s)", vm_name, src_pm_name, dst_pm_name);
313 }
314
315 static inline char *get_mig_process_tx_name(msg_vm_t vm, msg_host_t src_pm, msg_host_t dst_pm)
316 {
317   char *vm_name = sg_host_name(vm);
318   char *src_pm_name = sg_host_name(src_pm);
319   char *dst_pm_name = sg_host_name(dst_pm);
320
321   return bprintf("__pr_mig_tx:%s(%s-%s)", vm_name, src_pm_name, dst_pm_name);
322 }
323
324 static inline char *get_mig_process_rx_name(msg_vm_t vm, msg_host_t src_pm, msg_host_t dst_pm)
325 {
326   char *vm_name = sg_host_name(vm);
327   char *src_pm_name = sg_host_name(src_pm);
328   char *dst_pm_name = sg_host_name(dst_pm);
329
330   return bprintf("__pr_mig_rx:%s(%s-%s)", vm_name, src_pm_name, dst_pm_name);
331 }
332
333 static inline char *get_mig_task_name(msg_vm_t vm, msg_host_t src_pm, msg_host_t dst_pm, int stage)
334 {
335   char *vm_name = sg_host_name(vm);
336   char *src_pm_name = sg_host_name(src_pm);
337   char *dst_pm_name = sg_host_name(dst_pm);
338
339   return bprintf("__task_mig_stage%d:%s(%s-%s)", stage, vm_name, src_pm_name, dst_pm_name);
340 }
341
342 static void launch_deferred_exec_process(msg_host_t host, double computation, double prio);
343
344
345 struct migration_session {
346   msg_vm_t vm;
347   msg_host_t src_pm;
348   msg_host_t dst_pm;
349
350   /* The miration_rx process uses mbox_ctl to let the caller of do_migration()
351    * know the completion of the migration. */
352   char *mbox_ctl;
353   /* The migration_rx and migration_tx processes use mbox to transfer migration
354    * data. */
355   char *mbox;
356 };
357
358
359 static int migration_rx_fun(int argc, char *argv[])
360 {
361   XBT_DEBUG("mig: rx_start");
362
363   struct migration_session *ms = MSG_process_get_data(MSG_process_self());
364
365
366   s_ws_params_t params;
367   simcall_host_get_params(ms->vm, &params);
368   const double xfer_cpu_overhead = params.xfer_cpu_overhead;
369
370   int need_exit = 0;
371
372   char *finalize_task_name = get_mig_task_name(ms->vm, ms->src_pm, ms->dst_pm, 3);
373
374   for (;;) {
375     msg_task_t task = NULL;
376     MSG_task_recv(&task, ms->mbox);
377     {
378         double received ;
379       // TODO Adrien Clean the code (destroy task, free memory etc..
380       if (task)
381         received = MSG_task_get_data_size(task);
382       else
383         return 0;
384       /* TODO: clean up */
385       // const double alpha = 0.22L * 1.0E8 / (80L * 1024 * 1024);
386       launch_deferred_exec_process(ms->vm, received * xfer_cpu_overhead, 1);
387     }
388
389     if (strcmp(task->name, finalize_task_name) == 0)
390       need_exit = 1;
391
392     MSG_task_destroy(task);
393
394     if (need_exit)
395       break;
396   }
397
398
399   /* deinstall the current affinity setting for the CPU */
400   simcall_vm_set_affinity(ms->vm, ms->src_pm, 0);
401
402   /* Update the vm location */
403   simcall_vm_migrate(ms->vm, ms->dst_pm);
404   
405   /* Resume the VM */
406   simcall_vm_resume(ms->vm);
407
408   /* install the affinity setting of the VM on the destination pm */
409   {
410     msg_host_priv_t priv = msg_host_resource_priv(ms->vm);
411
412     unsigned long affinity_mask = (unsigned long) xbt_dict_get_or_null_ext(priv->affinity_mask_db, (char *) ms->dst_pm, sizeof(msg_host_t));
413     simcall_vm_set_affinity(ms->vm, ms->dst_pm, affinity_mask);
414     XBT_INFO("set affinity(0x%04lx@%s) for %s", affinity_mask, MSG_host_get_name(ms->dst_pm), MSG_host_get_name(ms->vm));
415   }
416
417   {
418     char *task_name = get_mig_task_name(ms->vm, ms->src_pm, ms->dst_pm, 4);
419
420     msg_task_t task = MSG_task_create(task_name, 0, 0, NULL);
421     msg_error_t ret = MSG_task_send(task, ms->mbox_ctl);
422     xbt_assert(ret == MSG_OK);
423
424     xbt_free(task_name);
425   }
426
427
428   xbt_free(finalize_task_name);
429
430   XBT_DEBUG("mig: rx_done");
431
432   return 0;
433 }
434
435 static void reset_dirty_pages(msg_vm_t vm)
436 {
437   msg_host_priv_t priv = msg_host_resource_priv(vm);
438
439   char *key = NULL;
440   xbt_dict_cursor_t cursor = NULL;
441   dirty_page_t dp = NULL;
442   xbt_dict_foreach(priv->dp_objs, cursor, key, dp) {
443     double remaining = MSG_task_get_remaining_computation(dp->task);
444     dp->prev_clock = MSG_get_clock();
445     dp->prev_remaining = remaining;
446
447     // XBT_INFO("%s@%s remaining %f", key, sg_host_name(vm), remaining);
448   }
449 }
450
451 static void start_dirty_page_tracking(msg_vm_t vm)
452 {
453   msg_host_priv_t priv = msg_host_resource_priv(vm);
454   priv->dp_enabled = 1;
455
456   reset_dirty_pages(vm);
457 }
458
459 static void stop_dirty_page_tracking(msg_vm_t vm)
460 {
461   msg_host_priv_t priv = msg_host_resource_priv(vm);
462   priv->dp_enabled = 0;
463 }
464
465 #if 0
466 /* It might be natural that we define dp_rate for each task. But, we will also
467  * have to care about how each task behavior affects the memory update behavior
468  * at the operating system level. It may not be easy to model it with a simple algorithm. */
469 double calc_updated_pages(char *key, msg_vm_t vm, dirty_page_t dp, double remaining, double clock)
470 {
471     double computed = dp->prev_remaining - remaining;
472     double duration = clock - dp->prev_clock;
473     double updated = dp->task->dp_rate * computed;
474
475     XBT_INFO("%s@%s: computated %f ops (remaining %f -> %f) in %f secs (%f -> %f)",
476         key, sg_host_name(vm), computed, dp->prev_remaining, remaining, duration, dp->prev_clock, clock);
477     XBT_INFO("%s@%s: updated %f bytes, %f Mbytes/s",
478         key, sg_host_name(vm), updated, updated / duration / 1000 / 1000);
479
480     return updated;
481 }
482 #endif
483
484 static double get_computed(char *key, msg_vm_t vm, dirty_page_t dp, double remaining, double clock)
485 {
486   double computed = dp->prev_remaining - remaining;
487   double duration = clock - dp->prev_clock;
488
489   XBT_DEBUG("%s@%s: computed %f ops (remaining %f -> %f) in %f secs (%f -> %f)",
490       key, sg_host_name(vm), computed, dp->prev_remaining, remaining, duration, dp->prev_clock, clock);
491
492   return computed;
493 }
494
495 static double lookup_computed_flop_counts(msg_vm_t vm, int stage_for_fancy_debug, int stage2_round_for_fancy_debug)
496 {
497   msg_host_priv_t priv = msg_host_resource_priv(vm);
498   double total = 0;
499
500   char *key = NULL;
501   xbt_dict_cursor_t cursor = NULL;
502   dirty_page_t dp = NULL;
503   xbt_dict_foreach(priv->dp_objs, cursor, key, dp) {
504     double remaining = MSG_task_get_remaining_computation(dp->task);
505
506          double clock = MSG_get_clock();
507
508     // total += calc_updated_pages(key, vm, dp, remaining, clock);
509     total += get_computed(key, vm, dp, remaining, clock);
510
511     dp->prev_remaining = remaining;
512     dp->prev_clock = clock;
513   }
514
515   total += priv->dp_updated_by_deleted_tasks;
516
517   XBT_DEBUG("mig-stage%d.%d: computed %f flop_counts (including %f by deleted tasks)",
518       stage_for_fancy_debug,
519       stage2_round_for_fancy_debug,
520       total, priv->dp_updated_by_deleted_tasks);
521
522
523
524   priv->dp_updated_by_deleted_tasks = 0;
525
526
527   return total;
528 }
529
530 // TODO Is this code redundant with the information provided by
531 // msg_process_t MSG_process_create(const char *name, xbt_main_func_t code, void *data, msg_host_t host)
532 void MSG_host_add_task(msg_host_t host, msg_task_t task)
533 {
534   msg_host_priv_t priv = msg_host_resource_priv(host);
535   double remaining = MSG_task_get_remaining_computation(task);
536   char *key = bprintf("%s-%p", task->name, task);
537
538   dirty_page_t dp = xbt_new0(s_dirty_page, 1);
539   dp->task = task;
540
541   /* It should be okay that we add a task onto a migrating VM. */
542   if (priv->dp_enabled) {
543     dp->prev_clock = MSG_get_clock();
544     dp->prev_remaining = remaining;
545   }
546
547   xbt_assert(xbt_dict_get_or_null(priv->dp_objs, key) == NULL);
548   xbt_dict_set(priv->dp_objs, key, dp, NULL);
549   XBT_DEBUG("add %s on %s (remaining %f, dp_enabled %d)", key, sg_host_name(host), remaining, priv->dp_enabled);
550
551   xbt_free(key);
552 }
553
554 void MSG_host_del_task(msg_host_t host, msg_task_t task)
555 {
556   msg_host_priv_t priv = msg_host_resource_priv(host);
557
558   char *key = bprintf("%s-%p", task->name, task);
559
560   dirty_page_t dp = xbt_dict_get_or_null(priv->dp_objs, key);
561   xbt_assert(dp->task == task);
562
563   /* If we are in the middle of dirty page tracking, we record how much
564    * computation has been done until now, and keep the information for the
565    * lookup_() function that will called soon. */
566   if (priv->dp_enabled) {
567     double remaining = MSG_task_get_remaining_computation(task);
568     double clock = MSG_get_clock();
569     // double updated = calc_updated_pages(key, host, dp, remaining, clock);
570     double updated = get_computed(key, host, dp, remaining, clock);
571
572     priv->dp_updated_by_deleted_tasks += updated;
573   }
574
575   xbt_dict_remove(priv->dp_objs, key);
576   xbt_free(dp);
577
578   XBT_DEBUG("del %s on %s", key, sg_host_name(host));
579
580   xbt_free(key);
581 }
582
583
584 static int deferred_exec_fun(int argc, char *argv[])
585 {
586   xbt_assert(argc == 3);
587   const char *comp_str = argv[1];
588   double computaion = atof(comp_str);
589   const char *prio_str = argv[2];
590   double prio = atof(prio_str);
591
592   msg_task_t task = MSG_task_create("__task_deferred", computaion, 0, NULL);
593   // XBT_INFO("exec deferred %f", computation);
594
595   /* dpt is the results of the VM activity */
596   MSG_task_set_priority(task, prio);
597   MSG_task_execute(task);
598
599
600
601   MSG_task_destroy(task);
602
603   return 0;
604 }
605
606 static void launch_deferred_exec_process(msg_host_t host, double computation, double prio)
607 {
608   char *pr_name = bprintf("__pr_deferred_exec_%s", MSG_host_get_name(host));
609
610   int nargvs = 4;
611   char **argv = xbt_new(char *, nargvs);
612   argv[0] = pr_name;
613   argv[1] = bprintf("%f", computation);
614   argv[2] = bprintf("%f", prio);
615   argv[3] = NULL;
616
617   MSG_process_create_with_arguments(pr_name, deferred_exec_fun, NULL, host, nargvs - 1, argv);
618 }
619
620
621 static int task_tx_overhead_fun(int argc, char *argv[])
622 {
623   xbt_assert(argc == 2);
624   const char *mbox = argv[1];
625
626   int need_exit = 0;
627
628   // XBT_INFO("start %s", mbox);
629
630   for (;;) {
631     msg_task_t task = NULL;
632     MSG_task_recv(&task, mbox);
633
634     // XBT_INFO("task->name %s", task->name);
635
636     if (strcmp(task->name, "finalize_making_overhead") == 0)
637       need_exit = 1;
638
639     // XBT_INFO("exec");
640     // MSG_task_set_priority(task, 1000000);
641     MSG_task_execute(task);
642     MSG_task_destroy(task);
643
644     if (need_exit)
645       break;
646   }
647
648   // XBT_INFO("bye");
649
650   return 0;
651 }
652
653 static void start_overhead_process(msg_task_t comm_task)
654 {
655   char *pr_name = bprintf("__pr_task_tx_overhead_%s", MSG_task_get_name(comm_task));
656   char *mbox    = bprintf("__mb_task_tx_overhead_%s", MSG_task_get_name(comm_task));
657
658   int nargvs = 3;
659   char **argv = xbt_new(char *, nargvs);
660   argv[0] = pr_name;
661   argv[1] = mbox;
662   argv[2] = NULL;
663
664   // XBT_INFO("micro start: mbox %s", mbox);
665   MSG_process_create_with_arguments(pr_name, task_tx_overhead_fun, NULL, MSG_host_self(), nargvs - 1, argv);
666 }
667
668 static void shutdown_overhead_process(msg_task_t comm_task)
669 {
670   char *mbox = bprintf("__mb_task_tx_overhead_%s", MSG_task_get_name(comm_task));
671
672   msg_task_t task = MSG_task_create("finalize_making_overhead", 0, 0, NULL);
673
674   // XBT_INFO("micro shutdown: mbox %s", mbox);
675   msg_error_t ret = MSG_task_send(task, mbox);
676   xbt_assert(ret == MSG_OK);
677
678   xbt_free(mbox);
679   // XBT_INFO("shutdown done");
680 }
681
682 static void request_overhead(msg_task_t comm_task, double computation)
683 {
684   char *mbox = bprintf("__mb_task_tx_overhead_%s", MSG_task_get_name(comm_task));
685
686   msg_task_t task = MSG_task_create("micro", computation, 0, NULL);
687
688   // XBT_INFO("req overhead");
689   msg_error_t ret = MSG_task_send(task, mbox);
690   xbt_assert(ret == MSG_OK);
691
692   xbt_free(mbox);
693 }
694
695 /* alpha is (floating_operations / bytes).
696  *
697  * When actual migration traffic was 32 mbytes/s, we observed the CPU
698  * utilization of the main thread of the Qemu process was 10 %. 
699  *   alpha = 0.1 * C / (32 * 1024 * 1024)
700  * where the CPU capacity of the PM is C flops/s.
701  *
702  * */
703 static void task_send_bounded_with_cpu_overhead(msg_task_t comm_task, char *mbox, double mig_speed, double alpha)
704 {
705   const double chunk_size = 1024 * 1024 * 10;
706   double remaining = MSG_task_get_data_size(comm_task);
707
708   start_overhead_process(comm_task);
709
710
711   while (remaining > 0) {
712     double data_size = chunk_size;
713     if (remaining < chunk_size)
714       data_size = remaining;
715
716     remaining -= data_size;
717
718     // XBT_INFO("remaining %f bytes", remaining);
719
720
721     double clock_sta = MSG_get_clock();
722
723     /* create a micro task */
724     {
725       char *mtask_name = bprintf("__micro_%s", MSG_task_get_name(comm_task));
726       msg_task_t mtask = MSG_task_create(mtask_name, 0, data_size, NULL);
727
728       request_overhead(comm_task, data_size * alpha);
729
730       msg_error_t ret = MSG_task_send(mtask, mbox);
731       xbt_assert(ret == MSG_OK);
732
733       xbt_free(mtask_name);
734     }
735
736 #if 0
737     {
738       /* In the real world, sending data involves small CPU computation. */
739       char *mtask_name = bprintf("__micro_%s", MSG_task_get_name(comm_task));
740       msg_task_t mtask = MSG_task_create(mtask_name, data_size * alpha, data_size, NULL);
741       MSG_task_execute(mtask);
742       MSG_task_destroy(mtask);
743       xbt_free(mtask_name);
744     }
745 #endif
746    
747     /* TODO */
748
749     double clock_end = MSG_get_clock();
750
751
752     if (mig_speed > 0) {
753       /*
754        * (max bandwidth) > data_size / ((elapsed time) + time_to_sleep)
755        *
756        * Thus, we get
757        *   time_to_sleep > data_size / (max bandwidth) - (elapsed time)
758        *
759        * If time_to_sleep is smaller than zero, the elapsed time was too big. We
760        * do not need a micro sleep.
761        **/
762       double time_to_sleep = data_size / mig_speed - (clock_end - clock_sta);
763       if (time_to_sleep > 0)
764         MSG_process_sleep(time_to_sleep);
765
766
767       //XBT_INFO("duration %f", clock_end - clock_sta);
768       //XBT_INFO("time_to_sleep %f", time_to_sleep);
769     }
770   }
771
772   // XBT_INFO("%s", MSG_task_get_name(comm_task));
773   shutdown_overhead_process(comm_task);
774
775 }
776
777
778 #if 0
779 static void make_cpu_overhead_of_data_transfer(msg_task_t comm_task, double init_comm_size)
780 {
781   double prev_remaining = init_comm_size;
782
783   for (;;) {
784     double remaining = MSG_task_get_remaining_communication(comm_task);
785     if (remaining == 0)
786       need_exit = 1;
787
788     double sent = prev_remaining - remaining;
789     double comp_size = sent * overhead;
790
791
792     char *comp_task_name = bprintf("__sender_overhead%s", MSG_task_get_name(comm_task));
793     msg_task_t comp_task = MSG_task_create(comp_task_name, comp_size, 0, NULL);
794     MSG_task_execute(comp_task);
795     MSG_task_destroy(comp_task);
796
797     if (need_exit)
798       break;
799
800     prev_remaining = remaining;
801
802   }
803
804   xbt_free(comp_task_name);
805 }
806 #endif
807
808 // #define USE_MICRO_TASK 1
809
810 #if 0
811 // const double alpha = 0.1L * 1.0E8 / (32L * 1024 * 1024);
812 // const double alpha = 0.25L * 1.0E8 / (85L * 1024 * 1024);
813 // const double alpha = 0.20L * 1.0E8 / (85L * 1024 * 1024);
814 // const double alpha = 0.25L * 1.0E8 / (85L * 1024 * 1024);
815 // const double alpha = 0.32L * 1.0E8 / (24L * 1024 * 1024);   // makes super good values for 32 mbytes/s
816 //const double alpha = 0.32L * 1.0E8 / (32L * 1024 * 1024);
817 // const double alpha = 0.56L * 1.0E8 / (80L * 1024 * 1024);
818 ////const double alpha = 0.20L * 1.0E8 / (80L * 1024 * 1024);
819 // const double alpha = 0.56L * 1.0E8 / (90L * 1024 * 1024);
820 // const double alpha = 0.66L * 1.0E8 / (90L * 1024 * 1024);
821 // const double alpha = 0.20L * 1.0E8 / (80L * 1024 * 1024);
822
823 /* CPU 22% when 80Mbyte/s */
824 const double alpha = 0.22L * 1.0E8 / (80L * 1024 * 1024);
825 #endif
826
827
828 static void send_migration_data(msg_vm_t vm, msg_host_t src_pm, msg_host_t dst_pm,
829     sg_size_t size, char *mbox, int stage, int stage2_round, double mig_speed, double xfer_cpu_overhead)
830 {
831   char *task_name = get_mig_task_name(vm, src_pm, dst_pm, stage);
832   msg_task_t task = MSG_task_create(task_name, 0, size, NULL);
833
834   /* TODO: clean up */
835
836   double clock_sta = MSG_get_clock();
837
838 #ifdef USE_MICRO_TASK
839
840   task_send_bounded_with_cpu_overhead(task, mbox, mig_speed, xfer_cpu_overhead);
841
842 #else
843   msg_error_t ret;
844   if (mig_speed > 0)
845     ret = MSG_task_send_bounded(task, mbox, mig_speed);
846   else
847     ret = MSG_task_send(task, mbox);
848 //  xbt_assert(ret == MSG_OK);
849     xbt_free(task_name);
850     if(ret == MSG_HOST_FAILURE){
851         THROWF(host_error, 0, "host failed during migration of %s", sg_host_name(vm));
852         }
853 #endif
854
855   double clock_end = MSG_get_clock();
856   double duration = clock_end - clock_sta;
857   double actual_speed = size / duration;
858 #ifdef USE_MICRO_TASK
859   double cpu_utilization = size * xfer_cpu_overhead / duration / 1.0E8;
860 #else
861   double cpu_utilization = 0;
862 #endif
863
864 // TODO - adsein, WTF with the following code ? 
865   if (stage == 2){
866     XBT_DEBUG("mig-stage%d.%d: sent %llu duration %f actual_speed %f (target %f) cpu %f", stage, stage2_round, size, duration, actual_speed, mig_speed, cpu_utilization);}
867   else{
868     XBT_DEBUG("mig-stage%d: sent %llu duration %f actual_speed %f (target %f) cpu %f", stage, size, duration, actual_speed, mig_speed, cpu_utilization);
869   }
870
871
872
873
874 #ifdef USE_MICRO_TASK
875   /* The name of a micro task starts with __micro, which does not match the
876    * special name that finalizes the receiver loop. Thus, we send the special task.
877    **/
878   {
879     if (stage == 3) {
880       char *task_name = get_mig_task_name(vm_name, src_pm_name, dst_pm_name, stage);
881       msg_task_t task = MSG_task_create(task_name, 0, 0, NULL);
882       msg_error_t ret = MSG_task_send(task, mbox);
883 //      xbt_assert(ret == MSG_OK);
884       xbt_free(task_name);
885       if(ret == MSG_HOST_FAILURE){
886         //THROWF(host_error, 0, "host failed", sg_host_name(vm));
887         XBT_INFO("host failed during migration of %s (stage 3)", sg_host_name(vm));
888         //MSG_task_destroy(task);
889         return; 
890       }
891     }
892   }
893 #endif
894
895 }
896
897 static double get_updated_size(double computed, double dp_rate, double dp_cap)
898 {
899   double updated_size = computed * dp_rate;
900   XBT_DEBUG("updated_size %f dp_rate %f", updated_size, dp_rate);
901   if (updated_size > dp_cap) {
902     // XBT_INFO("mig-stage2.%d: %f bytes updated, but cap it with the working set size %f", stage2_round, updated_size, dp_cap);
903     updated_size = dp_cap;
904   }
905
906   return updated_size;
907 }
908
909 static double send_stage1(struct migration_session *ms,
910     sg_size_t ramsize, double mig_speed, double xfer_cpu_overhead, double dp_rate, double dp_cap, double dpt_cpu_overhead)
911 {
912
913   // const long chunksize = (sg_size_t)1024 * 1024 * 100;
914   const sg_size_t chunksize = (sg_size_t)1024 * 1024 * 100000;
915   sg_size_t remaining = ramsize;
916   double computed_total = 0;
917
918   while (remaining > 0) {
919     sg_size_t datasize = chunksize;
920     if (remaining < chunksize)
921       datasize = remaining;
922
923     remaining -= datasize;
924
925     send_migration_data(ms->vm, ms->src_pm, ms->dst_pm, datasize, ms->mbox, 1, 0, mig_speed, xfer_cpu_overhead);
926     double computed = lookup_computed_flop_counts(ms->vm, 1, 0);
927     computed_total += computed;
928
929     // {
930     //   double updated_size = get_updated_size(computed, dp_rate, dp_cap);
931
932     //   double overhead = dpt_cpu_overhead * updated_size;
933     //   launch_deferred_exec_process(vm, overhead, 10000);
934     // }
935   }
936
937   return computed_total;
938 }
939
940
941
942 static double get_threshold_value(double bandwidth, double max_downtime)
943 {
944   /* This value assumes the network link is 1Gbps. */
945   // double threshold = max_downtime * 125 * 1024 * 1024;
946   double threshold = max_downtime * bandwidth;
947
948   return threshold;
949 }
950
951 static int migration_tx_fun(int argc, char *argv[])
952 {
953   XBT_DEBUG("mig: tx_start");
954
955   
956   struct migration_session *ms = MSG_process_get_data(MSG_process_self());
957
958   s_ws_params_t params;
959   simcall_host_get_params(ms->vm, &params);
960   const sg_size_t ramsize   = params.ramsize;
961   const sg_size_t devsize   = params.devsize;
962   const int skip_stage1     = params.skip_stage1;
963   const int skip_stage2     = params.skip_stage2;
964   const double dp_rate      = params.dp_rate;
965   const double dp_cap       = params.dp_cap;
966   const double mig_speed    = params.mig_speed;
967   const double xfer_cpu_overhead = params.xfer_cpu_overhead;
968   const double dpt_cpu_overhead = params.dpt_cpu_overhead;
969
970   double remaining_size = ramsize + devsize;
971
972   double max_downtime = params.max_downtime;
973   if (max_downtime == 0) {
974     XBT_WARN("use the default max_downtime value 30ms");
975     max_downtime = 0.03;
976   }
977
978   double threshold = 0.00001; /* TODO: cleanup */
979
980   /* setting up parameters has done */
981
982
983   if (ramsize == 0)
984     XBT_WARN("migrate a VM, but ramsize is zero");
985
986
987   XBT_INFO("mig-stage1: remaining_size %f", remaining_size);
988
989   /* Stage1: send all memory pages to the destination. */
990   start_dirty_page_tracking(ms->vm);
991
992   double computed_during_stage1 = 0;
993   if (!skip_stage1) {
994     // send_migration_data(vm_name, src_pm_name, dst_pm_name, ramsize, mbox, 1, 0, mig_speed, xfer_cpu_overhead);
995
996     /* send ramsize, but split it */
997     double clock_prev_send = MSG_get_clock();
998
999     TRY{
1000         computed_during_stage1 = send_stage1(ms, ramsize, mig_speed, xfer_cpu_overhead, dp_rate, dp_cap, dpt_cpu_overhead);
1001     } CATCH_ANONYMOUS{
1002       //hostfailure
1003       // TODO adsein, we should probably clean a bit the memory ? 
1004       return 0; 
1005     }
1006     remaining_size -= ramsize;
1007
1008     double clock_post_send = MSG_get_clock();
1009     double bandwidth = ramsize / (clock_post_send - clock_prev_send);
1010     threshold = get_threshold_value(bandwidth, max_downtime);
1011     XBT_INFO("actual bandwidth %f (MB/s), threshold %f", bandwidth / 1024 / 1024, threshold);
1012   }
1013
1014
1015   /* Stage2: send update pages iteratively until the size of remaining states
1016    * becomes smaller than the threshold value. */
1017   if (skip_stage2)
1018     goto stage3;
1019   if (max_downtime == 0) {
1020     XBT_WARN("no max_downtime parameter, skip stage2");
1021     goto stage3;
1022   }
1023
1024
1025   int stage2_round = 0;
1026   for (;;) {
1027
1028     double updated_size = 0;
1029     if (stage2_round == 0)  {
1030       /* just after stage1, nothing has been updated. But, we have to send the data updated during stage1 */
1031       updated_size = get_updated_size(computed_during_stage1, dp_rate, dp_cap);
1032     } else {
1033       double computed = lookup_computed_flop_counts(ms->vm, 2, stage2_round);
1034       updated_size = get_updated_size(computed, dp_rate, dp_cap);
1035     }
1036
1037     XBT_INFO("mig-stage 2:%d updated_size %f computed_during_stage1 %f dp_rate %f dp_cap %f",
1038         stage2_round, updated_size, computed_during_stage1, dp_rate, dp_cap);
1039
1040
1041     // if (stage2_round != 0) {
1042     //   /* during stage1, we have already created overhead tasks */
1043     //   double overhead = dpt_cpu_overhead * updated_size;
1044     //   XBT_DEBUG("updated %f overhead %f", updated_size, overhead);
1045     //   launch_deferred_exec_process(vm, overhead, 10000);
1046     // }
1047
1048
1049     {
1050       remaining_size += updated_size;
1051
1052       XBT_INFO("mig-stage2.%d: remaining_size %f (%s threshold %f)", stage2_round,
1053           remaining_size, (remaining_size < threshold) ? "<" : ">", threshold);
1054
1055       if (remaining_size < threshold)
1056         break;
1057     }
1058
1059     double clock_prev_send = MSG_get_clock();
1060
1061     send_migration_data(ms->vm, ms->src_pm, ms->dst_pm, updated_size, ms->mbox, 2, stage2_round, mig_speed, xfer_cpu_overhead);
1062
1063     double clock_post_send = MSG_get_clock();
1064
1065     double bandwidth = updated_size / (clock_post_send - clock_prev_send);
1066     threshold = get_threshold_value(bandwidth, max_downtime);
1067     XBT_INFO("actual bandwidth %f, threshold %f", bandwidth / 1024 / 1024, threshold);
1068
1069
1070     remaining_size -= updated_size;
1071     stage2_round += 1;
1072   }
1073
1074
1075 stage3:
1076   /* Stage3: stop the VM and copy the rest of states. */
1077   XBT_INFO("mig-stage3: remaining_size %f", remaining_size);
1078   simcall_vm_suspend(ms->vm);
1079   stop_dirty_page_tracking(ms->vm);
1080
1081   send_migration_data(ms->vm, ms->src_pm, ms->dst_pm, remaining_size, ms->mbox, 3, 0, mig_speed, xfer_cpu_overhead);
1082
1083
1084   XBT_DEBUG("mig: tx_done");
1085
1086   return 0;
1087 }
1088
1089
1090
1091 static void do_migration(msg_vm_t vm, msg_host_t src_pm, msg_host_t dst_pm)
1092 {
1093   struct migration_session *ms = xbt_new(struct migration_session, 1);
1094   ms->vm = vm;
1095   ms->src_pm = src_pm;
1096   ms->dst_pm = dst_pm;
1097   ms->mbox_ctl = get_mig_mbox_ctl(vm, src_pm, dst_pm);
1098   ms->mbox = get_mig_mbox_src_dst(vm, src_pm, dst_pm);
1099   
1100
1101   char *pr_rx_name = get_mig_process_rx_name(vm, src_pm, dst_pm);
1102   char *pr_tx_name = get_mig_process_tx_name(vm, src_pm, dst_pm);
1103
1104 //  MSG_process_create(pr_rx_name, migration_rx_fun, ms, dst_pm);
1105 //  MSG_process_create(pr_tx_name, migration_tx_fun, ms, src_pm);
1106 #if 1
1107  {
1108  char **argv = xbt_new(char *, 2);
1109  argv[0] = pr_rx_name;
1110  argv[1] = NULL;
1111  MSG_process_create_with_arguments(pr_rx_name, migration_rx_fun, ms, dst_pm, 1, argv);
1112  }
1113  {
1114  char **argv = xbt_new(char *, 2);
1115  argv[0] = pr_tx_name;
1116  argv[1] = NULL;
1117  MSG_process_create_with_arguments(pr_tx_name, migration_tx_fun, ms, src_pm, 1, argv);
1118  }
1119 #endif
1120
1121
1122
1123
1124   /* wait until the migration have finished */
1125   {
1126     msg_task_t task = NULL;
1127     msg_error_t ret = MSG_task_recv(&task, ms->mbox_ctl);
1128
1129     //xbt_assert(ret == MSG_OK);
1130     if(ret == MSG_HOST_FAILURE){
1131         //MSG_task_destroy(task);
1132         THROWF(host_error, 0, "host failed during migration of %s", sg_host_name(vm));
1133         } 
1134         // TODO clean the code
1135
1136     char *expected_task_name = get_mig_task_name(vm, src_pm, dst_pm, 4);
1137     xbt_assert(strcmp(task->name, expected_task_name) == 0);
1138     xbt_free(expected_task_name);
1139     MSG_task_destroy(task);
1140   }
1141
1142   xbt_free(ms->mbox_ctl);
1143   xbt_free(ms->mbox);
1144   xbt_free(ms);
1145 }
1146
1147
1148 /** @brief Migrate the VM to the given host.
1149  *  @ingroup msg_VMs
1150  *
1151  * FIXME: No migration cost occurs. If you want to simulate this too, you want to use a
1152  * MSG_task_send() before or after, depending on whether you want to do cold or hot
1153  * migration.
1154  */
1155 void MSG_vm_migrate(msg_vm_t vm, msg_host_t new_pm)
1156 {
1157   /* some thoughts:
1158    * - One approach is ...
1159    *   We first create a new VM (i.e., destination VM) on the destination
1160    *   physical host. The destination VM will receive the state of the source
1161    *   VM over network. We will finally destroy the source VM.
1162    *   - This behavior is similar to the way of migration in the real world.
1163    *     Even before a migration is completed, we will see a destination VM,
1164    *     consuming resources.
1165    *   - We have to relocate all processes. The existing process migraion code
1166    *     will work for this?
1167    *   - The name of the VM is a somewhat unique ID in the code. It is tricky
1168    *     for the destination VM?
1169    *
1170    * - Another one is ...
1171    *   We update the information of the given VM to place it to the destination
1172    *   physical host.
1173    *
1174    * The second one would be easier.
1175    *   
1176    */
1177
1178   msg_host_t old_pm = simcall_vm_get_pm(vm);
1179
1180   if (!MSG_vm_is_running(vm))
1181     THROWF(vm_error, 0, "VM(%s) is not running", sg_host_name(vm));
1182
1183   if (MSG_vm_is_migrating(vm))
1184     THROWF(vm_error, 0, "VM(%s) is already migrating", sg_host_name(vm));
1185
1186   msg_host_priv_t priv = msg_host_resource_priv(vm);
1187   priv->is_migrating = 1;
1188
1189   TRY{
1190    do_migration(vm, old_pm, new_pm);
1191   } CATCH_ANONYMOUS{
1192    RETHROW; 
1193    // TODO clean the code Adrien
1194   }
1195   priv->is_migrating = 0;
1196
1197   XBT_DEBUG("VM(%s) moved from PM(%s) to PM(%s)", vm->key, old_pm->key, new_pm->key);
1198
1199   #ifdef HAVE_TRACING
1200   TRACE_msg_vm_change_host(vm, old_pm, new_pm);
1201   #endif
1202 }
1203
1204
1205 /** @brief Immediately suspend the execution of all processes within the given VM.
1206  *  @ingroup msg_VMs
1207  *
1208  * This function stops the execution of the VM. All the processes on this VM
1209  * will pause. The state of the VM is preserved. We can later resume it again.
1210  *
1211  * No suspension cost occurs.
1212  */
1213 void MSG_vm_suspend(msg_vm_t vm)
1214 {
1215   if (MSG_vm_is_migrating(vm))
1216     THROWF(vm_error, 0, "VM(%s) is migrating", sg_host_name(vm));
1217
1218   simcall_vm_suspend(vm);
1219
1220   XBT_DEBUG("vm_suspend done");
1221
1222   #ifdef HAVE_TRACING
1223   TRACE_msg_vm_suspend(vm);
1224   #endif
1225 }
1226
1227
1228 /** @brief Resume the execution of the VM. All processes on the VM run again.
1229  *  @ingroup msg_VMs
1230  *
1231  * No resume cost occurs.
1232  */
1233 void MSG_vm_resume(msg_vm_t vm)
1234 {
1235   simcall_vm_resume(vm);
1236
1237   #ifdef HAVE_TRACING
1238   TRACE_msg_vm_resume(vm);
1239   #endif
1240 }
1241
1242
1243 /** @brief Immediately save the execution of all processes within the given VM.
1244  *  @ingroup msg_VMs
1245  *
1246  * This function stops the execution of the VM. All the processes on this VM
1247  * will pause. The state of the VM is preserved. We can later resume it again.
1248  *
1249  * FIXME: No suspension cost occurs. If you want to simulate this too, you want to
1250  * use a \ref MSG_file_write() before or after, depending on the exact semantic
1251  * of VM save to you.
1252  */
1253 void MSG_vm_save(msg_vm_t vm)
1254 {
1255   if (MSG_vm_is_migrating(vm))
1256     THROWF(vm_error, 0, "VM(%s) is migrating", sg_host_name(vm));
1257
1258   simcall_vm_save(vm);
1259   #ifdef HAVE_TRACING
1260   TRACE_msg_vm_save(vm);
1261   #endif
1262 }
1263
1264 /** @brief Restore the execution of the VM. All processes on the VM run again.
1265  *  @ingroup msg_VMs
1266  *
1267  * FIXME: No restore cost occurs. If you want to simulate this too, you want to
1268  * use a \ref MSG_file_read() before or after, depending on the exact semantic
1269  * of VM restore to you.
1270  */
1271 void MSG_vm_restore(msg_vm_t vm)
1272 {
1273   simcall_vm_restore(vm);
1274
1275   #ifdef HAVE_TRACING
1276   TRACE_msg_vm_restore(vm);
1277   #endif
1278 }
1279
1280
1281 /** @brief Get the physical host of a given VM.
1282  *  @ingroup msg_VMs
1283  */
1284 msg_host_t MSG_vm_get_pm(msg_vm_t vm)
1285 {
1286   return simcall_vm_get_pm(vm);
1287 }
1288
1289
1290 /** @brief Set a CPU bound for a given VM.
1291  *  @ingroup msg_VMs
1292  *
1293  * 1.
1294  * Note that in some cases MSG_task_set_bound() may not intuitively work for VMs.
1295  *
1296  * For example,
1297  *  On PM0, there are Task1 and VM0.
1298  *  On VM0, there is Task2.
1299  * Now we bound 75% to Task1\@PM0 and bound 25% to Task2\@VM0.
1300  * Then, 
1301  *  Task1\@PM0 gets 50%.
1302  *  Task2\@VM0 gets 25%.
1303  * This is NOT 75% for Task1\@PM0 and 25% for Task2\@VM0, respectively.
1304  *
1305  * This is because a VM has the dummy CPU action in the PM layer. Putting a
1306  * task on the VM does not affect the bound of the dummy CPU action. The bound
1307  * of the dummy CPU action is unlimited.
1308  *
1309  * There are some solutions for this problem. One option is to update the bound
1310  * of the dummy CPU action automatically. It should be the sum of all tasks on
1311  * the VM. But, this solution might be costly, because we have to scan all tasks
1312  * on the VM in share_resource() or we have to trap both the start and end of
1313  * task execution.
1314  *
1315  * The current solution is to use MSG_vm_set_bound(), which allows us to
1316  * directly set the bound of the dummy CPU action.
1317  *
1318  *
1319  * 2.
1320  * Note that bound == 0 means no bound (i.e., unlimited). But, if a host has
1321  * multiple CPU cores, the CPU share of a computation task (or a VM) never
1322  * exceeds the capacity of a CPU core.
1323  */
1324 void MSG_vm_set_bound(msg_vm_t vm, double bound)
1325 {
1326         return simcall_vm_set_bound(vm, bound);
1327 }
1328
1329
1330 /** @brief Set the CPU affinity of a given VM.
1331  *  @ingroup msg_VMs
1332  *
1333  * This function changes the CPU affinity of a given VM. Usage is the same as
1334  * MSG_task_set_affinity(). See the MSG_task_set_affinity() for details.
1335  */
1336 void MSG_vm_set_affinity(msg_vm_t vm, msg_host_t pm, unsigned long mask)
1337 {
1338   msg_host_priv_t priv = msg_host_resource_priv(vm);
1339
1340   if (mask == 0)
1341     xbt_dict_remove_ext(priv->affinity_mask_db, (char *) pm, sizeof(pm));
1342   else
1343     xbt_dict_set_ext(priv->affinity_mask_db, (char *) pm, sizeof(pm), (void *) mask, NULL);
1344
1345   msg_host_t pm_now = MSG_vm_get_pm(vm);
1346   if (pm_now == pm) {
1347     XBT_INFO("set affinity(0x%04lx@%s) for %s", mask, MSG_host_get_name(pm), MSG_host_get_name(vm));
1348     simcall_vm_set_affinity(vm, pm, mask);
1349   } else
1350     XBT_INFO("set affinity(0x%04lx@%s) for %s (not active now)", mask, MSG_host_get_name(pm), MSG_host_get_name(vm));
1351 }