Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
SMPI copyright bump before release
[simgrid.git] / src / smpi / colls / alltoallv / alltoallv-pair.cpp
1 /* Copyright (c) 2013-2017. The SimGrid Team.
2  * All rights reserved.                                                     */
3
4 /* This program is free software; you can redistribute it and/or modify it
5  * under the terms of the license (GNU LGPL) which comes with this package. */
6
7 #include "../colls_private.h"
8
9 /*****************************************************************************
10
11  * Function: alltoall_pair
12
13  * Return: int
14
15  * Inputs:
16     send_buff: send input buffer
17     send_count: number of elements to send
18     send_type: data type of elements being sent
19     recv_buff: receive output buffer
20     recv_count: number of elements to received
21     recv_type: data type of elements being received
22     comm: communicator
23
24  * Descrp: Function works when P is power of two. In each phase of P - 1
25            phases, nodes in pair communicate their data.
26
27  * Auther: Ahmad Faraj
28
29  ****************************************************************************/
30 namespace simgrid{
31 namespace smpi{
32 int Coll_alltoallv_pair::alltoallv(void *send_buff, int *send_counts, int *send_disps,
33                                   MPI_Datatype send_type,
34                                   void *recv_buff, int *recv_counts, int *recv_disps,
35                                   MPI_Datatype recv_type, MPI_Comm comm)
36 {
37
38   MPI_Aint send_chunk, recv_chunk;
39   MPI_Status s;
40   int i, src, dst, rank, num_procs;
41   int tag = COLL_TAG_ALLTOALLV;
42   char *send_ptr = (char *) send_buff;
43   char *recv_ptr = (char *) recv_buff;
44
45   rank = comm->rank();
46   num_procs = comm->size();
47
48   if((num_procs&(num_procs-1)))
49     THROWF(arg_error,0, "alltoallv pair algorithm can't be used with non power of two number of processes ! ");
50
51   send_chunk = send_type->get_extent();
52   recv_chunk = recv_type->get_extent();
53
54   for (i = 0; i < num_procs; i++) {
55     src = dst = rank ^ i;
56     Request::sendrecv(send_ptr + send_disps[dst] * send_chunk, send_counts[dst], send_type, dst, tag,
57                  recv_ptr + recv_disps[src] * recv_chunk, recv_counts[src], recv_type, src, tag,
58                  comm, &s);
59   }
60   return MPI_SUCCESS;
61 }
62 }
63 }