Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
e008cfb6350a9e8349238407fe11ff473f7c9a3e
[simgrid.git] / src / smpi / colls / alltoall-ring-one-barrier.c
1 #include "colls.h"
2 /*****************************************************************************
3
4  * Function: alltoall_ring
5
6  * Return: int
7
8  * Inputs:
9     send_buff: send input buffer
10     send_count: number of elements to send
11     send_type: data type of elements being sent
12     recv_buff: receive output buffer
13     recv_count: number of elements to received
14     recv_type: data type of elements being received
15     comm: communicator
16
17  * Descrp: Function works in P - 1 steps. In step i, node j - i -> j -> j + i.
18
19  * Auther: Ahmad Faraj
20
21  ****************************************************************************/
22 int
23 smpi_coll_tuned_alltoall_ring_one_barrier(void *send_buff, int send_count,
24                                           MPI_Datatype send_type,
25                                           void *recv_buff, int recv_count,
26                                           MPI_Datatype recv_type, MPI_Comm comm)
27 {
28   MPI_Status s;
29   MPI_Aint send_chunk, recv_chunk;
30   int i, src, dst, rank, num_procs;
31   int tag = 1, success = 1;     /*, failure = 0, pof2 = 1; */
32
33   char *send_ptr = (char *) send_buff;
34   char *recv_ptr = (char *) recv_buff;
35
36   MPI_Comm_rank(comm, &rank);
37   MPI_Comm_size(comm, &num_procs);
38   MPI_Type_extent(send_type, &send_chunk);
39   MPI_Type_extent(recv_type, &recv_chunk);
40
41   send_chunk *= send_count;
42   recv_chunk *= recv_count;
43
44   MPI_Barrier(comm);
45   for (i = 0; i < num_procs; i++) {
46     src = (rank - i + num_procs) % num_procs;
47     dst = (rank + i) % num_procs;
48
49     MPI_Sendrecv(send_ptr + dst * send_chunk, send_count, send_type, dst,
50                  tag, recv_ptr + src * recv_chunk, recv_count, recv_type,
51                  src, tag, comm, &s);
52   }
53   return success;
54 }