Logo AND Algorithmique Numérique Distribuée

Public GIT Repository
Merge branch 'hypervisor' of scm.gforge.inria.fr:/gitroot/simgrid/simgrid into hypervisor
[simgrid.git] / src / smpi / colls / alltoallv-ring-light-barrier.c
1 #include "colls_private.h"
2 /*****************************************************************************
3
4  * Function: alltoall_ring_light_barrier
5
6  * Return: int
7
8  * Inputs:
9     send_buff: send input buffer
10     send_count: number of elements to send
11     send_type: data type of elements being sent
12     recv_buff: receive output buffer
13     recv_count: number of elements to received
14     recv_type: data type of elements being received
15     comm: communicator
16
17  * Descrp: Function works in P - 1 steps. In step i, node j - i -> j -> j + i.
18            Light barriers are inserted between communications in different
19            phases.
20
21  * Auther: Ahmad Faraj
22
23  ****************************************************************************/
24 int
25 smpi_coll_tuned_alltoallv_ring_light_barrier(void *send_buff, int *send_counts, int *send_disps,
26                                             MPI_Datatype send_type,
27                                             void *recv_buff, int *recv_counts, int *recv_disps,
28                                             MPI_Datatype recv_type,
29                                             MPI_Comm comm)
30 {
31   MPI_Aint send_chunk, recv_chunk;
32   MPI_Status s;
33   int i, src, dst, rank, num_procs, next_dst, next_src;
34   int tag = 1;
35
36   char send_sync = 'a', recv_sync = 'b';
37   char *send_ptr = (char *) send_buff;
38   char *recv_ptr = (char *) recv_buff;
39
40   rank = smpi_comm_rank(comm);
41   num_procs = smpi_comm_size(comm);
42   send_chunk = smpi_datatype_get_extent(send_type);
43   recv_chunk = smpi_datatype_get_extent(recv_type);
44
45   smpi_mpi_sendrecv(send_ptr + send_disps[rank] * send_chunk, send_counts[rank], send_type, rank, tag,
46                recv_ptr + recv_disps[rank] * recv_chunk, recv_counts[rank], recv_type, rank, tag,
47                comm, &s);
48
49   for (i = 1; i < num_procs; i++) {
50     src = (rank - i + num_procs) % num_procs;
51     dst = (rank + i) % num_procs;
52
53     smpi_mpi_sendrecv(send_ptr + send_disps[dst] * send_chunk, send_counts[dst], send_type,
54                  dst, tag, recv_ptr + recv_disps[src] * recv_chunk, recv_counts[src],
55                  recv_type, src, tag, comm, &s);
56
57     if ((i + 1) < num_procs) {
58       next_src = (rank - (i + 1) + num_procs) % num_procs;
59       next_dst = (rank + (i + 1) + num_procs) % num_procs;
60       smpi_mpi_sendrecv(&send_sync, 1, MPI_CHAR, next_src, tag,
61                    &recv_sync, 1, MPI_CHAR, next_dst, tag, comm, &s);
62
63     }
64   }
65
66   return MPI_SUCCESS;
67 }