Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
add MPI_Probe and MPI_Iprobe support, and better handling of the MPI_Status structure...
[simgrid.git] / src / smpi / smpi_base.c
1 /* Copyright (c) 2007, 2008, 2009, 2010. The SimGrid Team.
2  * All rights reserved.                                                     */
3
4 /* This program is free software; you can redistribute it and/or modify it
5   * under the terms of the license (GNU LGPL) which comes with this package. */
6
7 #include "private.h"
8 #include "xbt/time.h"
9 #include "mc/mc.h"
10 #include "xbt/replay.h"
11 #include <errno.h>
12 #include "surf/surf.h"
13
14 XBT_LOG_NEW_DEFAULT_SUBCATEGORY(smpi_base, smpi,
15                                 "Logging specific to SMPI (base)");
16
17 static int match_recv(void* a, void* b, smx_action_t ignored) {
18    MPI_Request ref = (MPI_Request)a;
19    MPI_Request req = (MPI_Request)b;
20
21    xbt_assert(ref, "Cannot match recv against null reference");
22    xbt_assert(req, "Cannot match recv against null request");
23    return (ref->src == MPI_ANY_SOURCE || req->src == ref->src)
24           && (ref->tag == MPI_ANY_TAG || req->tag == ref->tag);
25 }
26
27 static int match_send(void* a, void* b,smx_action_t ignored) {
28    MPI_Request ref = (MPI_Request)a;
29    MPI_Request req = (MPI_Request)b;
30
31    xbt_assert(ref, "Cannot match send against null reference");
32    xbt_assert(req, "Cannot match send against null request");
33    return (req->src == MPI_ANY_SOURCE || req->src == ref->src)
34           && (req->tag == MPI_ANY_TAG || req->tag == ref->tag);
35 }
36
37 static MPI_Request build_request(void *buf, int count,
38                                  MPI_Datatype datatype, int src, int dst,
39                                  int tag, MPI_Comm comm, unsigned flags)
40 {
41   MPI_Request request;
42
43   request = xbt_new(s_smpi_mpi_request_t, 1);
44   request->buf = buf;
45   // FIXME: this will have to be changed to support non-contiguous datatypes
46   request->size = smpi_datatype_size(datatype) * count;
47   request->src = src;
48   request->dst = dst;
49   request->tag = tag;
50   request->comm = comm;
51   request->action = NULL;
52   request->flags = flags;
53 #ifdef HAVE_TRACING
54   request->send = 0;
55   request->recv = 0;
56 #endif
57   return request;
58 }
59
60 void smpi_action_trace_run(char *path)
61 {
62   char *name;
63   xbt_dynar_t todo;
64   xbt_dict_cursor_t cursor;
65
66   action_fp=NULL;
67   if (path) {
68     action_fp = fopen(path, "r");
69     xbt_assert(action_fp != NULL, "Cannot open %s: %s", path,
70                 strerror(errno));
71   }
72
73   if (!xbt_dict_is_empty(action_queues)) {
74     XBT_WARN
75         ("Not all actions got consumed. If the simulation ended successfully (without deadlock), you may want to add new processes to your deployment file.");
76
77
78     xbt_dict_foreach(action_queues, cursor, name, todo) {
79       XBT_WARN("Still %lu actions for %s", xbt_dynar_length(todo), name);
80     }
81   }
82
83   if (path)
84     fclose(action_fp);
85   xbt_dict_free(&action_queues);
86   action_queues = xbt_dict_new_homogeneous(NULL);
87 }
88
89 static void smpi_mpi_request_free_voidp(void* request)
90 {
91   MPI_Request req = request;
92   smpi_mpi_request_free(&req);
93 }
94
95 /* MPI Low level calls */
96 MPI_Request smpi_mpi_send_init(void *buf, int count, MPI_Datatype datatype,
97                                int dst, int tag, MPI_Comm comm)
98 {
99   MPI_Request request =
100       build_request(buf, count, datatype, smpi_comm_rank(comm), dst, tag,
101                     comm, PERSISTENT | SEND);
102
103   return request;
104 }
105
106 MPI_Request smpi_mpi_recv_init(void *buf, int count, MPI_Datatype datatype,
107                                int src, int tag, MPI_Comm comm)
108 {
109   MPI_Request request =
110       build_request(buf, count, datatype, src, smpi_comm_rank(comm), tag,
111                     comm, PERSISTENT | RECV);
112
113   return request;
114 }
115
116 void smpi_mpi_start(MPI_Request request)
117 {
118   smx_rdv_t mailbox;
119   int detached = 0;
120
121   xbt_assert(!request->action,
122               "Cannot (re)start a non-finished communication");
123   if(request->flags & RECV) {
124     print_request("New recv", request);
125     if (request->size < xbt_cfg_get_int(_surf_cfg_set, "smpi/async_small_thres"))
126     mailbox = smpi_process_mailbox_small();
127     else
128     mailbox = smpi_process_mailbox();
129
130     // FIXME: SIMIX does not yet support non-contiguous datatypes
131     request->action = simcall_comm_irecv(mailbox, request->buf, &request->size, &match_recv, request);
132   } else {
133     print_request("New send", request);
134
135     if (request->size < xbt_cfg_get_int(_surf_cfg_set, "smpi/async_small_thres")) { // eager mode => detached send (FIXME: this limit should be configurable)
136       mailbox = smpi_process_remote_mailbox_small(
137             smpi_group_index(smpi_comm_group(request->comm), request->dst));
138     }else{
139       XBT_DEBUG("Send request %p is not in the permanent receive mailbox (buf: %p)",request,request->buf);
140       mailbox = smpi_process_remote_mailbox(
141                   smpi_group_index(smpi_comm_group(request->comm), request->dst));
142     }
143     if (request->size < 64*1024 ) { //(FIXME: this limit should be configurable)
144       void *oldbuf = request->buf;
145       detached = 1;
146       request->buf = malloc(request->size);
147       if (oldbuf)
148         memcpy(request->buf,oldbuf,request->size);
149       XBT_DEBUG("Send request %p is detached; buf %p copied into %p",request,oldbuf,request->buf);
150     }
151
152       request->action =
153       simcall_comm_isend(mailbox, request->size, -1.0,
154               request->buf, request->size,
155               &match_send,
156               &smpi_mpi_request_free_voidp, // how to free the userdata if a detached send fails
157               request,
158               // detach if msg size < eager/rdv switch limit
159               detached);
160
161   #ifdef HAVE_TRACING
162       /* FIXME: detached sends are not traceable (request->action == NULL) */
163       if (request->action)
164         simcall_set_category(request->action, TRACE_internal_smpi_get_category());
165   #endif
166
167     }
168
169 }
170
171 void smpi_mpi_startall(int count, MPI_Request * requests)
172 {
173     int i;
174
175   for(i = 0; i < count; i++) {
176     smpi_mpi_start(requests[i]);
177   }
178 }
179
180 void smpi_mpi_request_free(MPI_Request * request)
181 {
182   xbt_free(*request);
183   *request = MPI_REQUEST_NULL;
184 }
185
186 MPI_Request smpi_isend_init(void *buf, int count, MPI_Datatype datatype,
187                             int dst, int tag, MPI_Comm comm)
188 {
189   MPI_Request request =
190       build_request(buf, count, datatype, smpi_comm_rank(comm), dst, tag,
191                     comm, NON_PERSISTENT | SEND);
192
193   return request;
194 }
195
196 MPI_Request smpi_mpi_isend(void *buf, int count, MPI_Datatype datatype,
197                            int dst, int tag, MPI_Comm comm)
198 {
199   MPI_Request request =
200       smpi_isend_init(buf, count, datatype, dst, tag, comm);
201
202   smpi_mpi_start(request);
203   return request;
204 }
205
206 MPI_Request smpi_irecv_init(void *buf, int count, MPI_Datatype datatype,
207                             int src, int tag, MPI_Comm comm)
208 {
209   MPI_Request request =
210       build_request(buf, count, datatype, src, smpi_comm_rank(comm), tag,
211                     comm, NON_PERSISTENT | RECV);
212
213   return request;
214 }
215
216 MPI_Request smpi_mpi_irecv(void *buf, int count, MPI_Datatype datatype,
217                            int src, int tag, MPI_Comm comm)
218 {
219   MPI_Request request =
220       smpi_irecv_init(buf, count, datatype, src, tag, comm);
221
222   smpi_mpi_start(request);
223   return request;
224 }
225
226 void smpi_mpi_recv(void *buf, int count, MPI_Datatype datatype, int src,
227                    int tag, MPI_Comm comm, MPI_Status * status)
228 {
229   MPI_Request request;
230
231   request = smpi_mpi_irecv(buf, count, datatype, src, tag, comm);
232   smpi_mpi_wait(&request, status);
233 }
234
235
236
237 void smpi_mpi_send(void *buf, int count, MPI_Datatype datatype, int dst,
238                    int tag, MPI_Comm comm)
239 {
240           MPI_Request request;
241
242           request = smpi_mpi_isend(buf, count, datatype, dst, tag, comm);
243           smpi_mpi_wait(&request, MPI_STATUS_IGNORE);
244 }
245
246 void smpi_mpi_sendrecv(void *sendbuf, int sendcount, MPI_Datatype sendtype,
247                        int dst, int sendtag, void *recvbuf, int recvcount,
248                        MPI_Datatype recvtype, int src, int recvtag,
249                        MPI_Comm comm, MPI_Status * status)
250 {
251   MPI_Request requests[2];
252   MPI_Status stats[2];
253
254   requests[0] =
255       smpi_isend_init(sendbuf, sendcount, sendtype, dst, sendtag, comm);
256   requests[1] =
257       smpi_irecv_init(recvbuf, recvcount, recvtype, src, recvtag, comm);
258   smpi_mpi_startall(2, requests);
259   smpi_mpi_waitall(2, requests, stats);
260   if(status != MPI_STATUS_IGNORE) {
261     // Copy receive status
262     memcpy(status, &stats[1], sizeof(MPI_Status));
263   }
264 }
265
266 int smpi_mpi_get_count(MPI_Status * status, MPI_Datatype datatype)
267 {
268   return status->count / smpi_datatype_size(datatype);
269 }
270
271 static void finish_wait(MPI_Request * request, MPI_Status * status)
272 {
273   MPI_Request req = *request;
274   // if we have a sender, we should use its data, and not the data from the receive
275   if((req->action)&&
276       (req->src==MPI_ANY_SOURCE || req->tag== MPI_ANY_TAG))
277     req = (MPI_Request)SIMIX_comm_get_src_data((*request)->action);
278
279   if(status != MPI_STATUS_IGNORE) {
280     status->MPI_SOURCE = req->src;
281     status->MPI_TAG = req->tag;
282     status->MPI_ERROR = MPI_SUCCESS;
283     // FIXME: really this should just contain the count of receive-type blocks,
284     // right?
285     status->count = req->size;
286   }
287   req = *request;
288
289   print_request("Finishing", req);
290   if(req->flags & NON_PERSISTENT) {
291     smpi_mpi_request_free(request);
292   } else {
293     req->action = NULL;
294   }
295 }
296
297 int smpi_mpi_test(MPI_Request * request, MPI_Status * status) {
298 int flag;
299
300    if ((*request)->action == NULL)
301   flag = 1;
302    else 
303     flag = simcall_comm_test((*request)->action);
304    if(flag) {
305         smpi_mpi_wait(request, status);
306     }
307     return flag;
308 }
309
310 int smpi_mpi_testany(int count, MPI_Request requests[], int *index,
311                      MPI_Status * status)
312 {
313   xbt_dynar_t comms;
314   int i, flag, size;
315   int* map;
316
317   *index = MPI_UNDEFINED;
318   flag = 0;
319   if(count > 0) {
320     comms = xbt_dynar_new(sizeof(smx_action_t), NULL);
321     map = xbt_new(int, count);
322     size = 0;
323     for(i = 0; i < count; i++) {
324       if(requests[i]->action) {
325          xbt_dynar_push(comms, &requests[i]->action);
326          map[size] = i;
327          size++;
328       }
329     }
330     if(size > 0) {
331       i = simcall_comm_testany(comms);
332       // FIXME: MPI_UNDEFINED or does SIMIX have a return code?
333       if(i != MPI_UNDEFINED) {
334         *index = map[i];
335         smpi_mpi_wait(&requests[*index], status);
336         flag = 1;
337       }
338     }
339     xbt_free(map);
340     xbt_dynar_free(&comms);
341   }
342   return flag;
343 }
344
345 void smpi_mpi_probe(int source, int tag, MPI_Comm comm, MPI_Status* status){
346   int flag=0;
347   //FIXME find another wait to avoid busy waiting ?
348   // the issue here is that we have to wait on a nonexistent comm
349   MPI_Request request;
350   while(flag==0){
351         request = smpi_mpi_iprobe(source, tag, comm, &flag, status);
352         XBT_DEBUG("Busy Waiting on probing : %d", flag);
353         if(!flag) {
354             smpi_mpi_request_free(&request);
355             simcall_process_sleep(0.0001);
356         }
357   }
358 }
359
360 MPI_Request smpi_mpi_iprobe(int source, int tag, MPI_Comm comm, int* flag, MPI_Status* status){
361   MPI_Request request =build_request(NULL, 0, MPI_CHAR, source, smpi_comm_rank(comm), tag,
362             comm, NON_PERSISTENT | RECV);
363   // behave like a receive, but don't do it
364   smx_rdv_t mailbox;
365
366   print_request("New iprobe", request);
367   // We have to test both mailboxes as we don't know if we will receive one one or another
368     if (xbt_cfg_get_int(_surf_cfg_set, "smpi/async_small_thres")>0){
369         mailbox = smpi_process_mailbox_small();
370         request->action = simcall_comm_iprobe(mailbox, request->src, request->tag, &match_recv, (void*)request);
371
372     }
373     if (request->action==NULL){
374         mailbox = smpi_process_mailbox();
375         request->action = simcall_comm_iprobe(mailbox, request->src, request->tag, &match_recv, (void*)request);
376     }
377
378   if(request->action){
379     MPI_Request req = (MPI_Request)SIMIX_comm_get_src_data(request->action);
380     *flag=true;
381     if(status != MPI_STATUS_IGNORE) {
382       status->MPI_SOURCE = req->src;
383       status->MPI_TAG = req->tag;
384       status->MPI_ERROR = MPI_SUCCESS;
385       status->count = req->size;
386     }
387   }
388   else *flag=false;
389
390   return request;
391 }
392
393 void smpi_mpi_wait(MPI_Request * request, MPI_Status * status)
394 {
395   print_request("Waiting", *request);
396   if ((*request)->action != NULL) { // this is not a detached send
397     simcall_comm_wait((*request)->action, -1.0);
398     finish_wait(request, status);
399   }
400   // FIXME for a detached send, finish_wait is not called:
401 }
402
403 int smpi_mpi_waitany(int count, MPI_Request requests[],
404                      MPI_Status * status)
405 {
406   xbt_dynar_t comms;
407   int i, size, index;
408   int *map;
409
410   index = MPI_UNDEFINED;
411   if(count > 0) {
412     // Wait for a request to complete
413     comms = xbt_dynar_new(sizeof(smx_action_t), NULL);
414     map = xbt_new(int, count);
415     size = 0;
416     XBT_DEBUG("Wait for one of");
417     for(i = 0; i < count; i++) {
418       if((requests[i] != MPI_REQUEST_NULL) && (requests[i]->action != NULL)) {
419         print_request("Waiting any ", requests[i]);
420         xbt_dynar_push(comms, &requests[i]->action);
421         map[size] = i;
422         size++;
423       }
424     }
425     if(size > 0) {
426       i = simcall_comm_waitany(comms);
427
428       // FIXME: MPI_UNDEFINED or does SIMIX have a return code?
429       if (i != MPI_UNDEFINED) {
430         index = map[i];
431         finish_wait(&requests[index], status);
432
433       }
434     }
435     xbt_free(map);
436     xbt_dynar_free(&comms);
437   }
438   return index;
439 }
440
441 void smpi_mpi_waitall(int count, MPI_Request requests[],
442                       MPI_Status status[])
443 {
444   int index, c;
445   MPI_Status stat;
446   MPI_Status *pstat = status == MPI_STATUS_IGNORE ? MPI_STATUS_IGNORE : &stat;
447
448   for(c = 0; c < count; c++) {
449     if(MC_IS_ENABLED) {
450       smpi_mpi_wait(&requests[c], pstat);
451       index = c;
452     } else {
453       index = smpi_mpi_waitany(count, requests, pstat);
454       if(index == MPI_UNDEFINED) {
455         break;
456       }
457     }
458     if(status != MPI_STATUS_IGNORE) {
459       memcpy(&status[index], pstat, sizeof(*pstat));
460     }
461   }
462 }
463
464 int smpi_mpi_waitsome(int incount, MPI_Request requests[], int *indices,
465                       MPI_Status status[])
466 {
467   int i, count, index;
468
469   count = 0;
470   for(i = 0; i < incount; i++) {
471      if(smpi_mpi_testany(incount, requests, &index, status)) {
472        indices[count] = index;
473        count++;
474      }
475   }
476   return count;
477 }
478
479 void smpi_mpi_bcast(void *buf, int count, MPI_Datatype datatype, int root,
480                     MPI_Comm comm)
481 {
482   // arity=2: a binary tree, arity=4 seem to be a good setting (see P2P-MPI))
483   nary_tree_bcast(buf, count, datatype, root, comm, 4);
484 }
485
486 void smpi_mpi_barrier(MPI_Comm comm)
487 {
488   // arity=2: a binary tree, arity=4 seem to be a good setting (see P2P-MPI))
489   nary_tree_barrier(comm, 4);
490 }
491
492 void smpi_mpi_gather(void *sendbuf, int sendcount, MPI_Datatype sendtype,
493                      void *recvbuf, int recvcount, MPI_Datatype recvtype,
494                      int root, MPI_Comm comm)
495 {
496   int system_tag = 666;
497   int rank, size, src, index;
498   MPI_Aint lb = 0, recvext = 0;
499   MPI_Request *requests;
500
501   rank = smpi_comm_rank(comm);
502   size = smpi_comm_size(comm);
503   if(rank != root) {
504     // Send buffer to root
505     smpi_mpi_send(sendbuf, sendcount, sendtype, root, system_tag, comm);
506   } else {
507     // FIXME: check for errors
508     smpi_datatype_extent(recvtype, &lb, &recvext);
509     // Local copy from root
510     smpi_datatype_copy(sendbuf, sendcount, sendtype, 
511         (char *)recvbuf + root * recvcount * recvext, recvcount, recvtype);
512     // Receive buffers from senders
513     requests = xbt_new(MPI_Request, size - 1);
514     index = 0;
515     for(src = 0; src < size; src++) {
516       if(src != root) {
517         requests[index] = smpi_irecv_init((char *)recvbuf + src * recvcount * recvext, 
518                                           recvcount, recvtype, 
519                                           src, system_tag, comm);
520         index++;
521       }
522     }
523     // Wait for completion of irecv's.
524     smpi_mpi_startall(size - 1, requests);
525     smpi_mpi_waitall(size - 1, requests, MPI_STATUS_IGNORE);
526     xbt_free(requests);
527   }
528 }
529
530 void smpi_mpi_gatherv(void *sendbuf, int sendcount, MPI_Datatype sendtype,
531                       void *recvbuf, int *recvcounts, int *displs,
532                       MPI_Datatype recvtype, int root, MPI_Comm comm)
533 {
534   int system_tag = 666;
535   int rank, size, src, index;
536   MPI_Aint lb = 0, recvext = 0;
537   MPI_Request *requests;
538
539   rank = smpi_comm_rank(comm);
540   size = smpi_comm_size(comm);
541   if(rank != root) {
542     // Send buffer to root
543     smpi_mpi_send(sendbuf, sendcount, sendtype, root, system_tag, comm);
544   } else {
545     // FIXME: check for errors
546     smpi_datatype_extent(recvtype, &lb, &recvext);
547     // Local copy from root
548     smpi_datatype_copy(sendbuf, sendcount, sendtype, 
549                        (char *)recvbuf + displs[root] * recvext, 
550                        recvcounts[root], recvtype);
551     // Receive buffers from senders
552     requests = xbt_new(MPI_Request, size - 1);
553     index = 0;
554     for(src = 0; src < size; src++) {
555       if(src != root) {
556         requests[index] =
557             smpi_irecv_init((char *)recvbuf + displs[src] * recvext, 
558                             recvcounts[src], recvtype, src, system_tag, comm);
559         index++;
560       }
561     }
562     // Wait for completion of irecv's.
563     smpi_mpi_startall(size - 1, requests);
564     smpi_mpi_waitall(size - 1, requests, MPI_STATUS_IGNORE);
565     xbt_free(requests);
566   }
567 }
568
569 void smpi_mpi_allgather(void *sendbuf, int sendcount,
570                         MPI_Datatype sendtype, void *recvbuf,
571                         int recvcount, MPI_Datatype recvtype,
572                         MPI_Comm comm)
573 {
574   int system_tag = 666;
575   int rank, size, other, index;
576   MPI_Aint lb = 0, recvext = 0;
577   MPI_Request *requests;
578
579   rank = smpi_comm_rank(comm);
580   size = smpi_comm_size(comm);
581   // FIXME: check for errors
582   smpi_datatype_extent(recvtype, &lb, &recvext);
583   // Local copy from self
584   smpi_datatype_copy(sendbuf, sendcount, sendtype, 
585                      (char *)recvbuf + rank * recvcount * recvext, recvcount, 
586                      recvtype);
587   // Send/Recv buffers to/from others;
588   requests = xbt_new(MPI_Request, 2 * (size - 1));
589   index = 0;
590   for(other = 0; other < size; other++) {
591     if(other != rank) {
592       requests[index] =
593           smpi_isend_init(sendbuf, sendcount, sendtype, other, system_tag,
594                           comm);
595       index++;
596       requests[index] = smpi_irecv_init((char *)recvbuf + other * recvcount * recvext, 
597                                         recvcount, recvtype, other, 
598                                         system_tag, comm);
599       index++;
600     }
601   }
602   // Wait for completion of all comms.
603   smpi_mpi_startall(2 * (size - 1), requests);
604   smpi_mpi_waitall(2 * (size - 1), requests, MPI_STATUS_IGNORE);
605   xbt_free(requests);
606 }
607
608 void smpi_mpi_allgatherv(void *sendbuf, int sendcount,
609                          MPI_Datatype sendtype, void *recvbuf,
610                          int *recvcounts, int *displs,
611                          MPI_Datatype recvtype, MPI_Comm comm)
612 {
613   int system_tag = 666;
614   int rank, size, other, index;
615   MPI_Aint lb = 0, recvext = 0;
616   MPI_Request *requests;
617
618   rank = smpi_comm_rank(comm);
619   size = smpi_comm_size(comm);
620   // FIXME: check for errors
621   smpi_datatype_extent(recvtype, &lb, &recvext);
622   // Local copy from self
623   smpi_datatype_copy(sendbuf, sendcount, sendtype, 
624                      (char *)recvbuf + displs[rank] * recvext, 
625                      recvcounts[rank], recvtype);
626   // Send buffers to others;
627   requests = xbt_new(MPI_Request, 2 * (size - 1));
628   index = 0;
629   for(other = 0; other < size; other++) {
630     if(other != rank) {
631       requests[index] =
632           smpi_isend_init(sendbuf, sendcount, sendtype, other, system_tag,
633                           comm);
634       index++;
635       requests[index] =
636           smpi_irecv_init((char *)recvbuf + displs[other] * recvext, recvcounts[other],
637                           recvtype, other, system_tag, comm);
638       index++;
639     }
640   }
641   // Wait for completion of all comms.
642   smpi_mpi_startall(2 * (size - 1), requests);
643   smpi_mpi_waitall(2 * (size - 1), requests, MPI_STATUS_IGNORE);
644   xbt_free(requests);
645 }
646
647 void smpi_mpi_scatter(void *sendbuf, int sendcount, MPI_Datatype sendtype,
648                       void *recvbuf, int recvcount, MPI_Datatype recvtype,
649                       int root, MPI_Comm comm)
650 {
651   int system_tag = 666;
652   int rank, size, dst, index;
653   MPI_Aint lb = 0, sendext = 0;
654   MPI_Request *requests;
655
656   rank = smpi_comm_rank(comm);
657   size = smpi_comm_size(comm);
658   if(rank != root) {
659     // Recv buffer from root
660     smpi_mpi_recv(recvbuf, recvcount, recvtype, root, system_tag, comm,
661                   MPI_STATUS_IGNORE);
662   } else {
663     // FIXME: check for errors
664     smpi_datatype_extent(sendtype, &lb, &sendext);
665     // Local copy from root
666     smpi_datatype_copy((char *)sendbuf + root * sendcount * sendext,
667       sendcount, sendtype, recvbuf, recvcount, recvtype);
668     // Send buffers to receivers
669     requests = xbt_new(MPI_Request, size - 1);
670     index = 0;
671     for(dst = 0; dst < size; dst++) {
672       if(dst != root) {
673         requests[index] = smpi_isend_init((char *)sendbuf + dst * sendcount * sendext, 
674                                           sendcount, sendtype, dst,
675                                           system_tag, comm);
676         index++;
677       }
678     }
679     // Wait for completion of isend's.
680     smpi_mpi_startall(size - 1, requests);
681     smpi_mpi_waitall(size - 1, requests, MPI_STATUS_IGNORE);
682     xbt_free(requests);
683   }
684 }
685
686 void smpi_mpi_scatterv(void *sendbuf, int *sendcounts, int *displs,
687                        MPI_Datatype sendtype, void *recvbuf, int recvcount,
688                        MPI_Datatype recvtype, int root, MPI_Comm comm)
689 {
690   int system_tag = 666;
691   int rank, size, dst, index;
692   MPI_Aint lb = 0, sendext = 0;
693   MPI_Request *requests;
694
695   rank = smpi_comm_rank(comm);
696   size = smpi_comm_size(comm);
697   if(rank != root) {
698     // Recv buffer from root
699     smpi_mpi_recv(recvbuf, recvcount, recvtype, root, system_tag, comm,
700                   MPI_STATUS_IGNORE);
701   } else {
702     // FIXME: check for errors
703     smpi_datatype_extent(sendtype, &lb, &sendext);
704     // Local copy from root
705     smpi_datatype_copy((char *)sendbuf + displs[root] * sendext, sendcounts[root], 
706                        sendtype, recvbuf, recvcount, recvtype);
707     // Send buffers to receivers
708     requests = xbt_new(MPI_Request, size - 1);
709     index = 0;
710     for(dst = 0; dst < size; dst++) {
711       if(dst != root) {
712         requests[index] =
713             smpi_isend_init((char *)sendbuf + displs[dst] * sendext, sendcounts[dst], 
714                             sendtype, dst, system_tag, comm);
715         index++;
716       }
717     }
718     // Wait for completion of isend's.
719     smpi_mpi_startall(size - 1, requests);
720     smpi_mpi_waitall(size - 1, requests, MPI_STATUS_IGNORE);
721     xbt_free(requests);
722   }
723 }
724
725 void smpi_mpi_reduce(void *sendbuf, void *recvbuf, int count,
726                      MPI_Datatype datatype, MPI_Op op, int root,
727                      MPI_Comm comm)
728 {
729   int system_tag = 666;
730   int rank, size, src, index;
731   MPI_Aint lb = 0, dataext = 0;
732   MPI_Request *requests;
733   void **tmpbufs;
734
735   rank = smpi_comm_rank(comm);
736   size = smpi_comm_size(comm);
737   if(rank != root) {
738     // Send buffer to root
739     smpi_mpi_send(sendbuf, count, datatype, root, system_tag, comm);
740   } else {
741     // FIXME: check for errors
742     smpi_datatype_extent(datatype, &lb, &dataext);
743     // Local copy from root
744     if (sendbuf && recvbuf)
745       smpi_datatype_copy(sendbuf, count, datatype, recvbuf, count, datatype);
746     // Receive buffers from senders
747     //TODO: make a MPI_barrier here ?
748     requests = xbt_new(MPI_Request, size - 1);
749     tmpbufs = xbt_new(void *, size - 1);
750     index = 0;
751     for(src = 0; src < size; src++) {
752       if(src != root) {
753         // FIXME: possibly overkill we we have contiguous/noncontiguous data
754         //  mapping...
755         tmpbufs[index] = xbt_malloc(count * dataext);
756         requests[index] =
757             smpi_irecv_init(tmpbufs[index], count, datatype, src,
758                             system_tag, comm);
759         index++;
760       }
761     }
762     // Wait for completion of irecv's.
763     smpi_mpi_startall(size - 1, requests);
764     for(src = 0; src < size - 1; src++) {
765       index = smpi_mpi_waitany(size - 1, requests, MPI_STATUS_IGNORE);
766       XBT_VERB("finished waiting any request with index %d", index);
767       if(index == MPI_UNDEFINED) {
768         break;
769       }
770       if(op) /* op can be MPI_OP_NULL that does nothing */
771         smpi_op_apply(op, tmpbufs[index], recvbuf, &count, &datatype);
772     }
773     for(index = 0; index < size - 1; index++) {
774       xbt_free(tmpbufs[index]);
775     }
776     xbt_free(tmpbufs);
777     xbt_free(requests);
778   }
779 }
780
781 void smpi_mpi_allreduce(void *sendbuf, void *recvbuf, int count,
782                         MPI_Datatype datatype, MPI_Op op, MPI_Comm comm)
783 {
784   smpi_mpi_reduce(sendbuf, recvbuf, count, datatype, op, 0, comm);
785   smpi_mpi_bcast(recvbuf, count, datatype, 0, comm);
786 }
787
788 void smpi_mpi_scan(void *sendbuf, void *recvbuf, int count,
789                    MPI_Datatype datatype, MPI_Op op, MPI_Comm comm)
790 {
791   int system_tag = 666;
792   int rank, size, other, index;
793   MPI_Aint lb = 0, dataext = 0;
794   MPI_Request *requests;
795   void **tmpbufs;
796
797   rank = smpi_comm_rank(comm);
798   size = smpi_comm_size(comm);
799
800   // FIXME: check for errors
801   smpi_datatype_extent(datatype, &lb, &dataext);
802
803   // Local copy from self
804   smpi_datatype_copy(sendbuf, count, datatype, recvbuf, count, datatype);
805
806   // Send/Recv buffers to/from others;
807   requests = xbt_new(MPI_Request, size - 1);
808   tmpbufs = xbt_new(void *, rank);
809   index = 0;
810   for(other = 0; other < rank; other++) {
811     // FIXME: possibly overkill we we have contiguous/noncontiguous data 
812     // mapping...
813     tmpbufs[index] = xbt_malloc(count * dataext);
814     requests[index] =
815         smpi_irecv_init(tmpbufs[index], count, datatype, other, system_tag,
816                         comm);
817     index++;
818   }
819   for(other = rank + 1; other < size; other++) {
820     requests[index] =
821         smpi_isend_init(sendbuf, count, datatype, other, system_tag, comm);
822     index++;
823   }
824   // Wait for completion of all comms.
825   smpi_mpi_startall(size - 1, requests);
826   for(other = 0; other < size - 1; other++) {
827     index = smpi_mpi_waitany(size - 1, requests, MPI_STATUS_IGNORE);
828     if(index == MPI_UNDEFINED) {
829       break;
830     }
831     if(index < rank) {
832       // #Request is below rank: it's a irecv
833       smpi_op_apply(op, tmpbufs[index], recvbuf, &count, &datatype);
834     }
835   }
836   for(index = 0; index < rank; index++) {
837     xbt_free(tmpbufs[index]);
838   }
839   xbt_free(tmpbufs);
840   xbt_free(requests);
841 }