Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
Merge branch 'master' of git+ssh://scm.gforge.inria.fr//gitroot/simgrid/simgrid
[simgrid.git] / src / smpi / colls / alltoall-ring-one-barrier.c
1 #include "colls.h"
2 /*****************************************************************************
3
4  * Function: alltoall_ring
5
6  * Return: int
7
8  * Inputs:
9     send_buff: send input buffer
10     send_count: number of elements to send
11     send_type: data type of elements being sent
12     recv_buff: receive output buffer
13     recv_count: number of elements to received
14     recv_type: data type of elements being received
15     comm: communicator
16
17  * Descrp: Function works in P - 1 steps. In step i, node j - i -> j -> j + i.
18
19  * Auther: Ahmad Faraj
20
21  ****************************************************************************/
22 int
23 smpi_coll_tuned_alltoall_ring_one_barrier(void * send_buff, int send_count, MPI_Datatype send_type,
24                           void * recv_buff, int recv_count, MPI_Datatype recv_type,
25                           MPI_Comm comm)
26 {
27   MPI_Status s;
28   MPI_Aint send_chunk, recv_chunk;
29   int i, src, dst, rank, num_procs;
30   int tag = 1, success = 1; /*, failure = 0, pof2 = 1; */
31
32   char * send_ptr = (char *) send_buff;
33   char * recv_ptr = (char *) recv_buff;
34   
35   MPI_Comm_rank(comm, &rank);
36   MPI_Comm_size(comm, &num_procs);
37   MPI_Type_extent(send_type, &send_chunk);
38   MPI_Type_extent(recv_type, &recv_chunk);
39
40   send_chunk *= send_count;
41   recv_chunk *= recv_count;  
42
43   MPI_Barrier(comm);
44   for (i = 0; i < num_procs; i++)
45     {
46       src = (rank - i + num_procs) % num_procs;
47       dst = (rank + i) % num_procs;
48       
49       MPI_Sendrecv(send_ptr + dst * send_chunk, send_count, send_type, dst,
50                    tag, recv_ptr + src * recv_chunk, recv_count, recv_type,
51                    src, tag, comm, &s);
52     }
53   return success;
54 }