Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
Merge branch 'master' into hypervisor
[simgrid.git] / src / smpi / colls / alltoall-pair-one-barrier.c
1 #include "colls.h"
2 /*****************************************************************************
3
4  * Function: alltoall_pair
5
6  * Return: int
7
8  * Inputs:
9     send_buff: send input buffer
10     send_count: number of elements to send
11     send_type: data type of elements being sent
12     recv_buff: receive output buffer
13     recv_count: number of elements to received
14     recv_type: data type of elements being received
15     comm: communicator
16
17  * Descrp: Function works when P is power of two. In each phase of P - 1
18            phases, nodes in pair communicate their data.
19
20  * Auther: Ahmad Faraj
21
22  ****************************************************************************/
23 int
24 smpi_coll_tuned_alltoall_pair_one_barrier(void *send_buff, int send_count,
25                                           MPI_Datatype send_type,
26                                           void *recv_buff, int recv_count,
27                                           MPI_Datatype recv_type, MPI_Comm comm)
28 {
29
30   MPI_Aint send_chunk, recv_chunk;
31   MPI_Status s;
32   int i, src, dst, rank, num_procs;
33   int tag = 1, success = 1;     /*, failure = 0, pof2 = 1; */
34
35   char *send_ptr = (char *) send_buff;
36   char *recv_ptr = (char *) recv_buff;
37
38   MPI_Comm_rank(comm, &rank);
39   MPI_Comm_size(comm, &num_procs);
40   MPI_Type_extent(send_type, &send_chunk);
41   MPI_Type_extent(recv_type, &recv_chunk);
42
43   send_chunk *= send_count;
44   recv_chunk *= recv_count;
45
46   MPI_Barrier(comm);
47   for (i = 0; i < num_procs; i++) {
48     src = dst = rank ^ i;
49     MPI_Sendrecv(send_ptr + dst * send_chunk, send_count, send_type, dst,
50                  tag, recv_ptr + src * recv_chunk, recv_count, recv_type,
51                  src, tag, comm, &s);
52   }
53
54   return success;
55 }